LadezeitEs gibt keine feste Zeitspanne, nach welcher der Googlebot das Crawlen einer Seite abbricht. Allerdings sollte auf jeden Fall darauf geachtet werden, alle zum Rendern einer Webseite benötigten Ressorcen so schnell wie möglich zu bereitzustellen.

Die Ladezeit ist ein Rankingfaktor, und sie kann darüber hinaus Einfluss darauf nehmen, ob eine Webseite überhaupt korrekt indexiert wird.

Das zeigt ein aktueller Fall, der im letzten Google Webmaster-Hangout besprochen wurde. Es ging um die Webseite eines Reisebüros. Auf der Webseite gibt es eine Suchfunktion, über die man die günstigsten Hotels eines Ortes finden kann.

Laut Erklärung des Webmasters dauere das dynamische Erzeugen der Suchergebnisse um die 30 Sekunden. Im Tool "Abruf wie durch Google" würden die nur die Platzhalter für die Suchergebnisse dargestellt, nicht aber die Ergebnisse selbst.

Johannes Müller erklärte, die Ursache dafür könnten auch blockierte Ressourcen sein. Er empfahl einen zusätzlichen Test mit dem Mobile Friendly-Tool.

Ein Kollege Müllers ging auf die Ladezeit der Ressourcen ein. Er ging davon aus, dass sie der Grund für die Probleme seien könnten. Es gebe aber keinen festen Zeitrahmen für einen Timeout durch den Googlebot. Ob die maximale Wartezeit bei einer Minute oder nur bei 30 Sekunden liege, könne man nicht sagen. Manchmal warte der Googlebot aber etwas länger, zum Beispiel dann, wenn es Netzwerkprobleme gebe.

Er riet dazu, die Inhalte schneller auszuspielen und so viele Inhalte wie möglich bereits auf dem Server zu berechnen. Dynamic Rendering könne hier zum Beispiel weiterhelfen.

30 Sekunden bis zur Darstellung von Suchergebnissen sind abgesehen davon eine inzwischen unzumutbar lange Dauer. Die Nutzer von Webseiten erwarten eine direkte Reaktion auf ihre Eingaben. Mehr als maximal zwei bis drei Sekunden sollte man sie nicht warten lassen, um Absprünge zu vermeiden.

 

Titelbild: Copyright Petrik - Fotolia.com

 


Christian Kunz

Von Christian Kunz

SEO-Experte.
Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier


Anzeige

SEO-Vergleich


Verwandte Beiträge

Damit Google eine Website crawlen kann, muss der Webserver die richtige HTTP-Antwort an den Googlebot senden. Ansonsten kann es zu Problemen kommen.

Google hat angekündigt, das Crawl Limiter Tool, mit dem sich die Crawl-Rate des Googlebots manuell reduzieren lässt, zum 8. Januar einzustellen.

Wenn eine Website plötzlich schlechtere Rankings bei Google erhält, bringt es nichts, sich auf technische Details wie die Ladezeit zu konzentrieren.

SEO-Newsletter bestellen

Im monatlichen SEO-Newsletter erhaltet Ihr eine Übersicht der jeweils zehn wichtigsten SEO-Meldungen des Monats. Mit dem SEO-Newsletter bleibt Ihr auf dem Laufenden.
Ich bin mit den Nutzungsbedingungen einverstanden