SEO-News

GooglebotWebseiten, die eine Ladezeit von mehr als zwei Sekunden aufweisen, werden seltener gecrawlt. Das hat Googles John Mueller in einem Beitrag in der Webmaster-Hilfe mitgeteilt.

Schon vor einiger Zeit hat Google als Richtwert für das Laden von Webseiten den Wert von maximal einer Sekunde vorgegeben. Die Ladegescheschwindigkeit ist vermutlich einer der wichtigsten Rankingfaktoren. Das kann man nicht zuletzt daran erkennen, dass Google mit einem Label für langsame Webseiten experimentiert, das auf den Suchergebnisseiten eingesetzt werden soll.

Eine weitere Einschränkung für langsame Webseiten ist jetzt bekannt geworden: Laut Aussage von John Mueller (Google Schweiz) gibt es Einschränkungen beim Crawlen von Webseiten, deren Ladezeit mehr als zwei Sekunden beträgt. Diese Information lieferte Mueller als Antwort auf eine Frage im Webmaster-Hilfeforum. In dier Frage ging es um Fehlermeldungen, die ein Nutzer erhielt, wenn er innerhalb der Google Webmaster-Tools die Funktion "Abruf wie durch Google" verwenden wollte. Hier hatte dieser Nutzer jeweils die Meldung erhalten, dass es Probleme mit dem Abruf der Seite gebe.

Mueller antwortete, dass Google die Zahl der gecrawlten Seiten reduziere, wenn die Ladezeit mehr als zwei Sekunden betrage. Interessant ist dabei die Nennung der konkreten Zeitangabe, denn Google hält sich bei solchen Dingen meist bedeckt. Wörtlich sagte Mueller:

We're seeing an extremely high response-time for requests made to your site (at times, over 2 seconds to fetch a single URL). This has resulted in us severely limiting the number of URLs we'll crawl from your site, and you're seeing that in Fetch as Google as well. My recommendation would be to make sure that your server is fast & responsive across the board. As our systems see a reduced response-time, they'll automatically ramp crawling back up (which gives you more room to use Fetch as Google too).

Die Verminderung des Crawlens kann unangenehme Auskwirkungen haben: Neue Seiten gelangen dadurch langsamer in den Index, und Änderungen an bestehenden Seiten werden später übernommen. Dazu kommt wie beschrieben das schlechtere Ranking für langsame Seiten. Es lohnt sich also, in die Geschwindigkeit der eigenen Webseite zu investieren. Erste Aufschlüsse über die vorhandenen Verbesserungspotentiale liefert Googles Pagespeed Insights.

 

Bild © AKS - Fotolia.com

 


Christian Kunz

Von Christian Kunz

SEO-Experte.
Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier


Anzeige

SEO-Vergleich


Verwandte Beiträge

Damit Google eine Website crawlen kann, muss der Webserver die richtige HTTP-Antwort an den Googlebot senden. Ansonsten kann es zu Problemen kommen.

Berdingt durch KI-Chatbots und andere Tools wird laut Einschätzung von Gartner Inc. der Suche-Traffic bis 2026 um ein Viertel sinken. Zukünftig wird es demnach noch mehr auf hochwertigen Content...

Google hat angekündigt, das Crawl Limiter Tool, mit dem sich die Crawl-Rate des Googlebots manuell reduzieren lässt, zum 8. Januar einzustellen.

 

 


 

 

 

 

 

 

 

 

Anzeige

rnkeffect

Premium-Partner (Anzeige)


Anzeigen sedo

SEO Agentur aus Darmstadt

SEO-Vergleich

Online Solutions Group


Onsite-Optimierung

Onsite-Optimierung

 

Sprecher auf

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO im Ohr, der Podcast von SEO Südwest: aktuell Folge

SEO-Beratung

Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.

Social Networks und RSS-Feed

Auszeichnungen

seo19 sieger sichtbarkeit 2020 200x200px