SEO-News

StoppGoogle crawlt regelmäßig einen großen Teil des Webs. Das ist auch nötig, um den Index anktuell zu halten. Bei Problemen auf einer Webseite verlangsamt Google das Crawlen jedoch - oder stellt es ganz ein. Worauf man achten muss, sagte ein Google-Insider gestern auf der SMX East.

Google und andere Suchmaschinen haben den Anspruch, ein möglichst aktuelles und umfassendes Abbild des WWW in ihrem Index abzubilden. Deshalb sind deren Crawler bzw. Bots stäandig unterwegs, um neue Dokumente aufzuspüren, Veränderungen zu erkennen und den Index entsprechend zu aktualisieren. Aufgrund der großen Anzahl der mittlerweile verfügbaren Dokumente ist es wichtig, dass diese möglichst schnell abgerufen werden können.

Gibt es Probleme auf einer Webseite, die dazu führen, dass die Antwortzeit steigt oder dass die Dokumente überhaupt nicht mehr abgerufen können, kann Google das Crawlen dieser Seite reduzieren oder sogar ganz einstellen. Googles Webmaster Trend-Analyst, Gary Illyes, hat sich dazu im Rahmen der SMX East geäußert. Hier sind die Faktoren, auf die man achten sollte, wenn man Google auch weiterhin als Gast auf der eigenen Webseite haben möchte:

 

Verbindungszeit

Ist die Verbindungszeit zum Server oder zur Webseite zu lang, wird Google das Crawlen verlangsamen oder sogar gänzlich einstellen. Einen zeitlichen Verlauf für die Dauer des Herunterladens von Seiten durch den Crawler lässt sich übrigens in den Crawling-Statistiken der Google Webmaster Tools abrufen. Zeigt der Trend für die Dauer nach oben, sollten Nachforschungen angestellt werden.

 

HTTP-Statuscodes

Ein weiteres Signal, das den Google-Bot zum Rückzug bewegt, sind HTTP-Statuscodes im 500er-Bereich. Diese deuten darauf hin, dass es Probleme auf dem Server gibt. Beim Auftreten solcher Codes zieht sich der Crawler nach Aussage Googles zurück, um keinen weiteren Schaden anzurichten. Crawling-Fehler lassen sich ebenfalls über die Google-Webmaster-Tools abrufen. Es ist zu empfehlen, dort regelmäßig hineinzuschauen.

Das beschriebene Verhalten der Crawler ist also aus zwei Gründen vernünftig und nachvollziehbar: Erstens schont es die knappen Crawling-Ressourcen der Suchmaschinen, und zweitens werden eventuell bestehende Probleme auf einer Webseite nicht durch zusätzliche Abfragen verstärkt.

 

Bild © JWS - Fotolia.com

 


Christian Kunz

Von Christian Kunz

SEO-Experte. Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier.



Anzeige von Clixado

Artikelveröffentlichungen auf starken Magazinen und Blogs

Wir kooperieren mit unzähligen Verlagen und Bloggern und können daher auf über 4000 Blogs zu fast allen Themengebieten Artikelplätze anbieten:

    - Nachhaltiger Linkaufbau, kein SEO-Netzwerk
    - Hohe Sichtbarkeitswerte, keine expired Domains
    - Einmalzahlung, keine Vertragsbindung

Für jede Artikelveröffentlichung erstellen wir hochwertigen Content mit mindestens 400 Wörtern und publizieren den Artikel mit einem DoFollow-Bachlink zu deiner Seite auf einem Magazin oder Blog deiner Wahl.

Frag uns unverbindlich nach Beispielen






Verwandte Beiträge

Neuer Googlebot für Favicons gesichtet

Kurz nachdem erneute Google-Tests mit Favicons in den Suchergebnissen beobachtet worden waren, gibt es nun den Bericht über einen vermeintlichen neuen Google-Bot, der dem Namen nach Favicons crawlt.

 

 


 

 

 

 

 

SEO-Checkliste

SEO-Checkliste

 

Anzeigen


SEO-Beratung

Suchmaschinenoptimierung und SEO-Beratung für Karlsruhe, Baden und die Pfalz

 

06340/351-943

 

info(at)seo-suedwest.de

SEO-Schulung 2019

SEO-Schulung

Ganztägige Schulung "SEO-Grundlagen". Jetzt anmelden

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO-Kalender 2018

SEO-Kalender 2018

 

Onsite-Optimierung

Onsite-Optimierung

 

SEO- und Suchmaschinenblogs

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

SEO selber machen

SEO selber machen

Sprecher auf

Auszeichnungen

iBusiness Top-100-Liste SEO-Dienstleister

SEO Südwest: Platz 5 bei den SEO-Wahlen 2014 zum besten deutschen SEO-Blog

 

SEO-united.de Tipp 12/15

SEO-Tipps und SEO-Tricks

IMAGE 'Noindex' oder robots.txt - wann ist welches Instrument das richtige?
Freitag, 09. Februar 2018
Um zu steuern, welche Seiten von Google und anderen Suchmaschinen gecrawlt und indexiert werden... Weiterlesen...
IMAGE Lighthouse: ein Top-Tool für die Performancemessung von Webseiten und PWAs
Montag, 16. Oktober 2017
Lighthouse ist ein Tool, mit dem man die Performance und die Nutzerfreundlichkeit von Progressive... Weiterlesen...
IMAGE Tipp: Reddit für den Aufbau von Backlinks nutzen
Samstag, 17. Januar 2015
Die Social-News-Plattform Reddit erlaubt den Aufbau von guten Backlinks - wenn man sich an... Weiterlesen...

News aus dem Blog

IMAGE SEO: Linkbuilding gehört dazu
Donnerstag, 09. August 2018
Ohne den konstanten und nachhaltigen Aufbau hochwertiger Links bringen die besten Onpage-Maßnahmen... Weiterlesen...
IMAGE Google Webmaster Hangout: A visit at the Google Zurich office
Donnerstag, 05. Juli 2018
I was invited to Google Zurich to take part in a new episode of the Webmaster Office Hangout. I was... Weiterlesen...
IMAGE Neuer SEO-Contest: Punktesystem soll für mehr Fairness und Chancen sorgen
Montag, 30. Juli 2018
Im Rahmen eines neuen SEO-Contests kämmpfen wieder zahlreiche Publisher und Webseitenanbieter um... Weiterlesen...

 Eine Auswahl zufriedener Kunden

Rebel - Bad Küche Raum
Schöne Haare Karlsruhe
kr3m
feel-perfect.eu - Die Nährstoffexperten border=
Flintec IT GmbH
ESM Academy
Ringladen

Verbinden und Informationen zu SEO Südwest

Impressum und Datenschutz

Social Networks und RSS-Feed