SEO-News

CrawlerEs ist zu empfehlen, die Crawl-Frequenz des Googlebots im Auge zu behalten, denn seltene Besuche und eine geringe Zahl abgerufener Seiten sind ein Signal dafür, dass Google die Qualität der Webseite als gering einstuft.

 

Google verfügt zwar über enorme Rechenkapazitäten, doch auch diese müssen möglichst effizient eingeteilt werden. Das führt dazu, dass der Googlebot nicht alle Webseiten gleich oft und gleich intensiv besucht.

Populäre Webseiten und vor allem solche, auf denen sich häufig aktualisierte Inhalte befinden, werden von Google besonders bevorzugt. Anders sieht es bei Webseiten aus, deren Qualität Google als zu gering einstuft, um sie regelmäßig zu crawlen.

Diese Annahme wird durch einen Beitrag von Johannes Müller im heutigen Webmaster-Hangout bestätigt. Er sagte dort (Übersetzung Red.):

"In vielen Fällen, in denen es um Link-Spam geht und eine Webseite mit niedriger Qualität betroffen ist, die uns nicht wichtig ist, bringt das schnellere Crawlen nichts, und es wird keine großen Auswirkungen haben."

Normalerweise legt Google großen Wert auf die gute Crawlbarkeit von Webseiten, damit für den Vorgang weniger Zeit benötigt wird. Im Fall von Webseiten niedriger Qualität scheint diese Anforderung nicht zu gelten, was nur daran liegen kann, dass diese einfach seltener vom Googlebot besucht werden.

Daher sollte man regelmäßig einen Blick auf die Crawling-Statistiken in den Google Webmaster Tools werfen und prüfen, ob es signifikante Änderungen an der Häufigkeit der Crawler-Besuche und der Zahl der abgerufenen Seiten gibt.

Auch ein langsamer Server kann übrigens zu Schwierigkeiten beim Crawlen führen. Um diese Ursache auszuschließen, sollte man passende Tools wie Google PageSpeed Insights oder webpagetest verwenden.

Im nachfolgenden Video ist die vollständige Antwort Müllers zu sehen:

 

Johannes Müller

 

Titelbild © AKS - Fotolia.com

 


Christian Kunz

Von Christian Kunz

SEO-Experte.
Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier


Anzeige

SEO-Vergleich


Verwandte Beiträge

Damit Google eine Website crawlen kann, muss der Webserver die richtige HTTP-Antwort an den Googlebot senden. Ansonsten kann es zu Problemen kommen.

Das Tool zum Begrenzen der Crawl-Rate aus der Google Search Console wird zum heutigen 8. Januar eingestellt. Google kann die Crawl-Rate selbst am besten an die jeweiligen Bedingungen anpassen.

Google hat angekündigt, das Crawl Limiter Tool, mit dem sich die Crawl-Rate des Googlebots manuell reduzieren lässt, zum 8. Januar einzustellen.

Anzeige

rnkeffect

Premium-Partner (Anzeige)


Anzeigen sedo

SEO Agentur aus Darmstadt

SEO-Vergleich

Online Solutions Group


Onsite-Optimierung

Onsite-Optimierung

 

Sprecher auf

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO im Ohr, der Podcast von SEO Südwest: aktuell Folge

SEO-Beratung

Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.

Social Networks und RSS-Feed

Auszeichnungen

seo19 sieger sichtbarkeit 2020 200x200px