SuchmaschinenbotWenn der Abruf der robots.txt einer Website einen undefinierten HTTP-Status als Antwort liefert, kann Google das Crawlen der kompletten Website einstellen.

Google reagiert sehr sensibel auf Probleme beim Abruf der robots.txt. Erhält der Googlebot zum Beispiel einen Serverfehler (500er), wird das Crawlen sämtlicher URLs der betreffenden Website eingestellt.

Doch nicht nur Serverfehler sind beim Abruf der robots.txt problematisch. Auch wenn ein nicht definierter HTTP-Status zurückgeliefert wird, kann Google das Crawlen einer Website abbrechen. Das zeigt ein aktuelles Beispiel. Ein Nutzer hatte bemerkt, dass Google seit mehreren Tagen keine URLs seiner Website mehr abrief:

 

Google: Probleme mit der robots.txt führten zum Abbruch des Crawlens

 

Der Grund dafür war offenbar, dass beim Abruf der robots.txt ein HTTP-Status 950 gesendet wurde. Dieser besagt, dass bei der Interpretation einer Administrator-Anfrage des Clients ein Fehler aufgetreten ist. Offiziell dokumentiert ist das allerdings nicht. Google kann diesen Status laut Johannes Müller nicht verarbeiten:

 

Google: HTTP-Status 950 kann nicht verarbeitet werden

 

Müller empfahl, das Problem zu beheben und verwies dabei auf die entsprechende Hilfeseite zur Verwendung von robots.txt-Dateien.

 

Google: Das Verwenden eines nicht definierten HTTP-Statuscodes für robots.txt ist problematisch

 

Es ist übrigens kein Problem, wenn der Abruf der robots.txt einen 404-Status liefert. Wenn keine robots.txt gefunden wird, crawlt Google eine Website ganz normal.

 

Titelbild: Copyright Patrick Daxenbichler - Fotolia.com

 


Christian Kunz

Von Christian Kunz

SEO-Experte.
Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier


Anzeige

SEO-Vergleich


Verwandte Beiträge

Damit Google eine Website crawlen kann, muss der Webserver die richtige HTTP-Antwort an den Googlebot senden. Ansonsten kann es zu Problemen kommen.

Wenn die 404-Seite einer Website den HTTP-Status 200 sendet, ist das zwar keine Katastrophe, sollte aber dennoch behoben werden. Google gibt Tipps dazu, was man in einem solchen Fall unternehmen...

Die Google Search Console hat einen neuen robots.txt-Report erhalten. Dafür wird der alte robots.txt-Tester eingestellt.

SEO-Newsletter bestellen

Im monatlichen SEO-Newsletter erhaltet Ihr eine Übersicht der jeweils zehn wichtigsten SEO-Meldungen des Monats. Mit dem SEO-Newsletter bleibt Ihr auf dem Laufenden.
Ich bin mit den Nutzungsbedingungen einverstanden