Es gibt keine feste Zeitspanne, nach welcher der Googlebot das Crawlen einer Seite abbricht. Allerdings sollte auf jeden Fall darauf geachtet werden, alle zum Rendern einer Webseite benötigten Ressorcen so schnell wie möglich zu bereitzustellen.
Die Ladezeit ist ein Rankingfaktor, und sie kann darüber hinaus Einfluss darauf nehmen, ob eine Webseite überhaupt korrekt indexiert wird.
Das zeigt ein aktueller Fall, der im letzten Google Webmaster-Hangout besprochen wurde. Es ging um die Webseite eines Reisebüros. Auf der Webseite gibt es eine Suchfunktion, über die man die günstigsten Hotels eines Ortes finden kann.
Laut Erklärung des Webmasters dauere das dynamische Erzeugen der Suchergebnisse um die 30 Sekunden. Im Tool "Abruf wie durch Google" würden die nur die Platzhalter für die Suchergebnisse dargestellt, nicht aber die Ergebnisse selbst.
Johannes Müller erklärte, die Ursache dafür könnten auch blockierte Ressourcen sein. Er empfahl einen zusätzlichen Test mit dem Mobile Friendly-Tool.
Ein Kollege Müllers ging auf die Ladezeit der Ressourcen ein. Er ging davon aus, dass sie der Grund für die Probleme seien könnten. Es gebe aber keinen festen Zeitrahmen für einen Timeout durch den Googlebot. Ob die maximale Wartezeit bei einer Minute oder nur bei 30 Sekunden liege, könne man nicht sagen. Manchmal warte der Googlebot aber etwas länger, zum Beispiel dann, wenn es Netzwerkprobleme gebe.
Er riet dazu, die Inhalte schneller auszuspielen und so viele Inhalte wie möglich bereits auf dem Server zu berechnen. Dynamic Rendering könne hier zum Beispiel weiterhelfen.
30 Sekunden bis zur Darstellung von Suchergebnissen sind abgesehen davon eine inzwischen unzumutbar lange Dauer. Die Nutzer von Webseiten erwarten eine direkte Reaktion auf ihre Eingaben. Mehr als maximal zwei bis drei Sekunden sollte man sie nicht warten lassen, um Absprünge zu vermeiden.
Titelbild: Copyright Petrik - Fotolia.com