Wenn in der Google Search Console Meldungen über blockierte Ressourcen erscheinen, kann das daran liegen, dass die robots.txt vorübergehend nicht erreichbar war.
Google ruft vor dem Crawlen einer Website immer die robots.txt ab, sofern diese Datei hinterlegt ist. Wenn in der Google Search Console Meldungen über blockierte Ressourcen erscheinen, obwohl eine robots.txt besteht und ohne dass diese verändert wurde, kann das daran liegen, dass Google die robots.txt vorübergehend nicht abrufen konnte.
Wenn beim Abruf der robots.txt ein Status 403 oder 500 gesendet wird, crawlt Google die betreffende Website nicht. Das erklärte Johannes Müller in einem aktuellen Webmaster-Hangout. Dann kann es zu solchen Meldungen kommen.
Um zu testen, ob eine temporäre Nicht-Verfügbarkeit die Ursache für Meldungen über blockierte Ressourcen ist, empfiehlt Müller einen Blick in die Logfiles. Dort sollte man die Abrufe der robots.txt prüfen und nachsehen, welcher Serverstatus und welche Antwortzeiten jeweils mit den Aufrufen verbunden waren.
Wenn die robots.txt länger nicht abgerufen werden kann und zum Beispiel dauerhaft ein Status 500 gesendet wird, unterbricht Google das Crawlen für eine Weile. Das ist dann problematisch, wenn neue Inhalte auf einer Website ergänzt oder bestehende Inhalte geändert werden. Nach einiger Zeit kann es dann aber sein, dass Google das Crawlen trotz nicht verfügbarer robots.txt wieder aufnimmt.
Titelbild: Copyright Patrick Daxenbichler - Fotolia.com
SEO-Newsletter bestellen