SEO-News

Page SpeedWer seine Webseite auf einem langsamen Server betreibt, läuft Gefahr, dass nicht alle URLs gecrawlt werden. Google berechnet die Leistungsfähigkeit bei der Berechnung des Crawl-Budgets ein.

 

Unter Umständen kann sich die Investition für ein besseres Hosting-Paket durchaus lohnen, denn langsame Server schmälern unter Umständen des Crawl-Budget einer Webseite. Das hat Gary Illyes von Google in einem aktuellen Video erklärt. In der Virtual Keynote 2 mit Eric Enge von Stonetemple Consulting nannte Illyes die Faktoren, die sich auf die Zahl der gecrawlten URLs auswirken.

Google errechnet demnach regelmäßig eine bestimmte Menge von URLs pro Webseite, die zum Crawlen anstehen. Wichtig bei der Priorisierung ist vor allem die Bedeutung der einzelnen Seiten, die anhand des PageRanks gemessen wird. Als weiterer Faktor fließt die Host Load in die Berechnung ein: Sie enthält Erwartungen dazu, wie viele URLs auf einem Server gecrawlt werden können, ohne dass es dadurch zu einer Verlangsamung kommt. Sobald die maximale Zahl der URLs erreicht ist, die ohne Probleme vom Server ausgeliefert werden können, bricht Google den Crawl-Vorgang ab. Das ist natürlich in solchen Fällen schade, in denen dieser Abbruch schon stattfindet, bevor alle von Google für eine Webseite vorgesehenen URLs besucht worden sind.

Nachfolgend ist die entsprechende Stelle im Video zu sehen:

 

Eric Enge

 

Gerade bei Shared Hosting-Paketen kann das passieren. Hier kommt außerdem hinzu, dass die Performance des Servers auch von den anderen Webseiten beeinflusst wird, die darauf laufen. Man sollte sich also sehr genau überlegen, welches Hosting-Paket man wählen will - vor allem dann, wenn man eine große Webseite mit vielen Unterseiten betreibt.

 

Titelbild © Petrik - Fotolia.com

 


Christian Kunz

Von Christian Kunz

SEO-Experte.
Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier


Anzeige

SEO-Vergleich


Verwandte Beiträge

Wenn Google eine Website plötzlich deutlich mehr crawlt, sollte man prüfen, ob ein Problem die Ursache dafür ist. Darauf wies jetzt Gary Illyes von Google hin.

Google empfiehlt, sogenannte Action URLs per robots.txt zu blockieren, um das Crawlen auf wichtige URLs zu fokussieren.

Google legt das Crawlbudget pro Hostname fest. Das bedeutet, dass die Hauptdomain sowie ihre Subdomains über unterschiedliche Crawl-Budgets verfügen.

Anzeige

rnkeffect

Premium-Partner (Anzeige)


Anzeigen InternetX

SEO Agentur aus Darmstadt

Better sell online

Online Solutions Group

Onsite-Optimierung

Onsite-Optimierung

 

Sprecher auf

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO im Ohr, der Podcast von SEO Südwest: aktuell Folge

SEO-Beratung

Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.

Social Networks und RSS-Feed

Auszeichnungen

seo19 sieger sichtbarkeit 2020 200x200px