SEO-News

Suchmaschinenbot

Das Verwenden von 'Crawl-delay' in der robots.txt kann in bestimmten Fällen dazu führen, dass Google die komplette Website nicht mehr crawlen kann.

 


 Anzeige

Google berücksichtigt die Anweisung "Crawl-delay" in der robots.txt nicht. John Müller erklärte in einer früheren Ausgabe von "SEO Snippets", die Angabe bestimmter Zeitintervalle zwischen Requests ergebe keinen Sinn. Webserver können heute viele Requests pro Sekunde bearbeiten. Zudem seien Webserver sehr dynamisch, so dass ein bestimmter Wert ebenfalls nicht sinnvoll sei.

Das Nicht-Berücksichtigen von "Crawl-delay" durch Google kann in ungünstigen Fällen dazu führen, dass Google eine komplette Website nicht mehr crawlen kann. Dazu muss in der robots.txt eine bestimmte Reihenfolge der Direktiven und der User Agents angegeben sein. Ein Beispiel dafür teilte ein Nutzer auf Twitter. Er schrieb, dass eine alte Website plötzlich komplett für die Suche blockiert war.

In der betreffenden robots.txt ist zunächst die für alle User-Agents gültige Anweisung "Crawl-delay: 2" zu finden. Darunter folgt eine Direktive, die nur für den Mozbot gilt, für den die gesamte Website blockiert ist.

 

Googlebot geblockt wegen Nicht-Berücksichtigung von 'Crawl-delay'

 

Weil nun Google das "Crawl-delay" ignoriert, wendet es das "*", das alle User Agents anspricht, auf das "Disallow: /" an, was bedeutet, dass das Crawlen der Website für alle User Agents verboten ist. Offenbar ignoriert Google die Nennung des Mozbots komplett.

Sicherlich ist das ein Spezialfall, aber es zeigt, dass manchmal gravierende Probleme mit der robots.txt bestehen können, die nicht auf den ersten Blick sichtbar sind.

Danke für dieses Fundstück an Glenn Gabe.

 


Christian Kunz

Von Christian Kunz

SEO-Experte.
Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier


Anzeige

SEO-Vergleich


Verwandte Beiträge

Damit Google eine Website crawlen kann, muss der Webserver die richtige HTTP-Antwort an den Googlebot senden. Ansonsten kann es zu Problemen kommen.

Google hat angekündigt, das Crawl Limiter Tool, mit dem sich die Crawl-Rate des Googlebots manuell reduzieren lässt, zum 8. Januar einzustellen.

Die Google Search Console hat einen neuen robots.txt-Report erhalten. Dafür wird der alte robots.txt-Tester eingestellt.

SEO-Newsletter bestellen

Im monatlichen SEO-Newsletter erhaltet Ihr eine Übersicht der jeweils zehn wichtigsten SEO-Meldungen des Monats. Mit dem SEO-Newsletter bleibt Ihr auf dem Laufenden.
Ich bin mit den Nutzungsbedingungen einverstanden

 

Anzeige

rnkeffect

Premium-Partner (Anzeige)


Anzeigen sedo

SEO Agentur aus Darmstadt

Better sell online

Online Solutions Group

Onsite-Optimierung

Onsite-Optimierung

 

Sprecher auf

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO im Ohr, der Podcast von SEO Südwest: aktuell Folge

SEO-Beratung

Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.

Social Networks und RSS-Feed

Auszeichnungen

seo19 sieger sichtbarkeit 2020 200x200px