SEO-News

CrawlerMit Hilfe einer speziellen Funktion in der Google Search Console kann man die Verarbeitung einer neu eingereichten robots.txt beschleunigen.

Im Falle einer geänderten robots.txt kann es manchmal auf jede Minute ankommen, wenn verhindert werden soll, dass bestimmte Seiten nicht oder nicht vollständig gecrawlt und indexiert werden. Gerade bei großen Webseiten, die häufig von den Crawlern besucht werden, kann durch falsche Angaben in der robots.txt schnell ein beträchtlicher Schaden entstehen.

Google benötigt normalerweise bis zu einem Tag, bis eine neu eingereichte robots.txt verarbeitet wird. Zur Beschleunigung dieses Vorgangs gibt es eine Funktion in der Google Search Console. Wie Johannes Müller von Google in einem Forenbeitrag beschreibt, kann man dazu das robots.txt-Tester verwenden, der unter "Crawling" aufgerufen werden kann. Auf der Seite des robots.txt-Testers klickt man dann auf den "Senden"-Button unten rechts. Danach öffnet sich folgendes Fenster:Google Search Console: robots.txt neu einreichen

Hier klickt man auf "Google um Aktualisierung bitten". Im Text unter dem Button heißt es:

"Senden Sie eine Anfrage, um Google darüber zu informieren, dass Ihre "robots.txt"-Datei aktualisiert wurde."

Müller sagt dazu folgendes:

"One small thing you can do to force a change in the robots.txt file to be reprocessed (usually we do this about once a day, depending on the website) is to use the robots.txt testing tool in Search Console. There you'll see the current known version, and you can submit your new one for reprocessing, if you've since made changes."

 

Titelbild © AKS - Fotolia.com

 

Verwandte Beiträge

Es ist keine gute Idee, die robots.txt einer Website dynamisch zu ändern, um zum Beispiel die Serverlast durch das Crawlen zu steuern.

Indexierte URLs, die per robots.txt gesperrt sind, werden von Google irgendwann aus dem Index entfernt. Das ist zum Beispiel dann wichtig, wenn große Mengen an URLs auf einmal per robots.txt...

Auf der Google Search Central in Zürich wurden für die Zukunft häufigere Core Updates angekündigt. Auch die Bedeutung der robots.txt und von strukturierten Daten wurde betont.

 

 

Anzeige

rnkeffect

Premium-Partner (Anzeige)


Anzeigen Digitaleffects

Online Solutions Group

Onsite-Optimierung

Onsite-Optimierung

 

Sprecher auf

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO im Ohr, der Podcast von SEO Südwest: aktuell Folge

SEO-Beratung

Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.

Social Networks und RSS-Feed

Auszeichnungen

seo19 sieger sichtbarkeit 2020 200x200px