SEO-News

LadezeitEs gibt keine feste Zeitspanne, nach welcher der Googlebot das Crawlen einer Seite abbricht. Allerdings sollte auf jeden Fall darauf geachtet werden, alle zum Rendern einer Webseite benötigten Ressorcen so schnell wie möglich zu bereitzustellen.

Die Ladezeit ist ein Rankingfaktor, und sie kann darüber hinaus Einfluss darauf nehmen, ob eine Webseite überhaupt korrekt indexiert wird.

Das zeigt ein aktueller Fall, der im letzten Google Webmaster-Hangout besprochen wurde. Es ging um die Webseite eines Reisebüros. Auf der Webseite gibt es eine Suchfunktion, über die man die günstigsten Hotels eines Ortes finden kann.

Laut Erklärung des Webmasters dauere das dynamische Erzeugen der Suchergebnisse um die 30 Sekunden. Im Tool "Abruf wie durch Google" würden die nur die Platzhalter für die Suchergebnisse dargestellt, nicht aber die Ergebnisse selbst.

Johannes Müller erklärte, die Ursache dafür könnten auch blockierte Ressourcen sein. Er empfahl einen zusätzlichen Test mit dem Mobile Friendly-Tool.

Ein Kollege Müllers ging auf die Ladezeit der Ressourcen ein. Er ging davon aus, dass sie der Grund für die Probleme seien könnten. Es gebe aber keinen festen Zeitrahmen für einen Timeout durch den Googlebot. Ob die maximale Wartezeit bei einer Minute oder nur bei 30 Sekunden liege, könne man nicht sagen. Manchmal warte der Googlebot aber etwas länger, zum Beispiel dann, wenn es Netzwerkprobleme gebe.

Er riet dazu, die Inhalte schneller auszuspielen und so viele Inhalte wie möglich bereits auf dem Server zu berechnen. Dynamic Rendering könne hier zum Beispiel weiterhelfen.

30 Sekunden bis zur Darstellung von Suchergebnissen sind abgesehen davon eine inzwischen unzumutbar lange Dauer. Die Nutzer von Webseiten erwarten eine direkte Reaktion auf ihre Eingaben. Mehr als maximal zwei bis drei Sekunden sollte man sie nicht warten lassen, um Absprünge zu vermeiden.

 

Titelbild: Copyright Petrik - Fotolia.com

 


Christian Kunz

Von Christian Kunz

SEO-Experte.
Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier


Anzeige

SEO-Vergleich


Verwandte Beiträge

Damit Google eine Website crawlen kann, muss der Webserver die richtige HTTP-Antwort an den Googlebot senden. Ansonsten kann es zu Problemen kommen.

Google hat angekündigt, das Crawl Limiter Tool, mit dem sich die Crawl-Rate des Googlebots manuell reduzieren lässt, zum 8. Januar einzustellen.

Wenn eine Website plötzlich schlechtere Rankings bei Google erhält, bringt es nichts, sich auf technische Details wie die Ladezeit zu konzentrieren.

SEO-Newsletter bestellen

Im monatlichen SEO-Newsletter erhaltet Ihr eine Übersicht der jeweils zehn wichtigsten SEO-Meldungen des Monats. Mit dem SEO-Newsletter bleibt Ihr auf dem Laufenden.
Ich bin mit den Nutzungsbedingungen einverstanden

Anzeige

rnkeffect

Premium-Partner (Anzeige)


Anzeigen sedo

SEO Agentur aus Darmstadt

SEO-Vergleich

Online Solutions Group


Onsite-Optimierung

Onsite-Optimierung

 

Sprecher auf

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO im Ohr, der Podcast von SEO Südwest: aktuell Folge

SEO-Beratung

Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.

Social Networks und RSS-Feed

Auszeichnungen

seo19 sieger sichtbarkeit 2020 200x200px