GoogleplexGoogle behält JavaScript- und CSS-Dateien von gecrawlten Webseiten lange im Cache. Das kann zu Problemen mit der Indexierung führen, wenn diese Dateien für die Aktualisierung von Inhalten benötigt werden.

JavaScript- und CSS-Dateien machen oftmals einen großen Teils des Datenvolumens einer Webseite aus. Entsprechend aufwändig ist es, diese Dateien abzurufen - auch für den Googlebot. Daher speichert Google diese Dateien im Cache und behält sie dort für längere Zeit.

Das kann problematisch für Webseiten sein, die zur Aktualisierung von Inhalten JavaScript einsetzen. Darauf wies Johannes Müller in einem aktuellen Tweet hin:

 

Google behält JavaScript- und CSS-Dateien lange im Cache: dadurch mögliche Probleme mit der Aktualisierung von Inhalten

 

Insbesondere News-Seiten, bei denen es auf eine schnelle Indexierung ankommt, dürften Probleme bekommen, wenn sie auf JavaScript zur Darstellung und Aktualisierung der Inhalte setzen. 

Schon vor einigen Wochen wies Google darauf hin, dass bei Webseiten, die auf JavaScript basieren, mehrere Tage zwischen dem Crawlen und dem Indexieren vergehen können.

Ob es im oben genannten Fall hilft, die Cache-Dauer für die JavaScript- und CSS-Dateien im HTTP-Header entsprechend kurz anzusetzen, ist unklar. Das würde voraussetzen, dass sich Google an diese Werte hält.

Alternativ kann Dynamic Rendering genutzt werden: Hier wird für den Googlebot und andere Crawler reines, vorgerendertes HTML ausgespielt, während die Browser JavaScript erhalten, das sie interpretieren müssen.

 


Christian Kunz

Von Christian Kunz

SEO-Experte.
Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier


Anzeige

SEO-Vergleich


Verwandte Beiträge

Damit Google eine Website crawlen kann, muss der Webserver die richtige HTTP-Antwort an den Googlebot senden. Ansonsten kann es zu Problemen kommen.

Die Google Search Console meldet für eine Seite ein 'noindex', aber das lässt sich einfach nicht nachvollziehen? Das kann am Rendering der Seite per JavaScript liegen.

Google hat angekündigt, das Crawl Limiter Tool, mit dem sich die Crawl-Rate des Googlebots manuell reduzieren lässt, zum 8. Januar einzustellen.

SEO-Newsletter bestellen

Im monatlichen SEO-Newsletter erhaltet Ihr eine Übersicht der jeweils zehn wichtigsten SEO-Meldungen des Monats. Mit dem SEO-Newsletter bleibt Ihr auf dem Laufenden.
Ich bin mit den Nutzungsbedingungen einverstanden