Tipps und Tricks zu SEO

Tipps und Tricks zu SEO

Android-BotsUm zu steuern, welche Seiten von Google und anderen Suchmaschinen gecrawlt und indexiert werden sollen, kann man die robots.txt-Datei und das Meta Robots-Attribut verwenden. Vielen Webmastern ist aber unklar, wann sie welches Instrument einsetzen sollten. Um das zu verstehen, muss vor allem die Funktionsweise der Suchmaschinen bekannt sein.

Es ist eine der ewigen Fragen in der SEO: Sollte man Seiten per robots.txt oder per 'noindex'-Attribut sperren? Dabei wird oft vergessen, dass diese beiden Methoden nichts miteinander zu tun haben, denn die robots.txt bezieht sich auf das Crawlen der Seiten, während das 'noindex'-Attribut aussagt, dass die betreffende Seite nicht indexiert werden soll. Um dies ein wenig zu verdeutlichen, folgt zunächst eine Beschreibung der grundsätzlichen Funktionsweise von Suchmaschinen.

 

Die Funktionsweise der Suchmaschinen: crawlen und indexieren

Im Grunde ist das Prinzip, nach denen Suchmaschinen arbeiten, recht simpel: Aus der großen Menge von Webseiten werden einige Seiten als Startpunkt ausgewählt. Ausgehend von diesen Seiten werden über die dort vorhandenen Links weitere Seiten aufgerufen. Die dort vorgefundenen Inhalte wie Texte und Metadaten werden ausgelesen und bereinigt. Das alles übernimmt ein Crawler wie beispielsweise der Googlebot.

Die vorgefundenen Daten werden in einer Datenbank gespeichert. Erfasste URLs werden in eine Warteliste eingetragen, und die betreffenden Seiten werden zu einem späteren Zeitpunkt aufgerufen.

 

Crawlen und Indexieren und der Einfluss von robotx.txt und 'noindex'

 

Anhand dieses Prozesses kann verdeutlicht werden, wo robots.txt und "noindex" ansetzen: Seiten, die in einer robots.txt-Datei gesperrt sind, werden vom Crawler gar nicht erst aufgerufen. Die dort vorhandenen Inhalte inklusive der dort vorhandenen Links bleiben der Suchmaschine also verborgen.

Falls das Meta Robots-Attribut "noindex" gesetzt ist, werden die auf einer Seite gefundenen Inhalte zwar gecrawlt, aber nicht indexiert. Zudem werden die dort gefundenen Links über kurz oder lang nicht mehr gewertet.

 

Wann sollten Seiten per robots.txt gesperrt werden und wann per 'noindex'?

Die Darstellung zeigt, dass das Sperren per robots.txt und "noindex" völlig unterschiedliche Effekte hat. Je nach gewünschtem Verhalten der Suchmaschine muss das eine oder das andere Instrument gewählt werden. Man sollte sich dazu folgende Fragen stellen:

  • Sollen die Seite gecrawlt und ihre Inhalte indexiert werden? In diesem Fall darf es weder per robots.txt noch per Meta Robots eine Sperre geben.
  • Soll die Seite gecrawlt werden, ohne dass ihre Inhalte im Index landen? In diesem Fall darf nur eine Sperrung per "noindex" erfolgen.
  • Soll die Seite weder gecrawlt noch indexiert werden? Dies ist ein Sonderfall, denn hier kommt es darauf an, ob die Seite schon im Index enthalten ist oder nicht. Siehe dazu den folgenden Abschnitt.

 

Falscher Einsatz der robots.txt kann ungewünschte Folgen haben

Ein besonders häufiger Fehler, der im Zusammenspiel mit der robots.txt-Datei begangen wird, ist der folgende: Eine Seite ist bereits bei Google indexiert, soll aber aus dem Index entfernt werden. Anstatt nun die Seite per "noindex" zu kennzeichnen, wird sie in der robots.txt per "disallow" gesperrt. Das hat aber zur Folge, dass die Seite weiterhin im Index verbleibt, Google aber keine Description mehr im Snippet anzeigt, sondern lediglich einen Hinweis, dass die Seite per robots.txt gesperrt ist:

 

Google: Hinweis auf gesperrte robots.txt

 

Das richtige Vorgehen in diesem Fall wäre also, die Seite zunächst per Meta Robots auf "noindex" zu setzen. Wenn die Seite aus dem Index entfernt wurde, kann sie anschließend per "disallow" in der robots.txt für die Crawler gesperrt werden.

 

Fazit

Das Crawlen einzelner Seiten durch die Suchmaschinen wird per robots.txt-Datei gesteuert, das Indexieren per Meta Robots-Attribut. Vorsicht ist geboten, wenn bereits indexierte Seiten per robots.txt-Datei gesperrt werden - in diesem Fall kann es zu unerwünschten Effekten auf den Suchergebnisseiten kommen.

 

Titelbild: Google

 


Christian Kunz

Von Christian Kunz

SEO-Experte.
Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier


Anzeige

SEO-Vergleich


Verwandte Beiträge

Auf Links von Seiten mit 'noindex, follow' kann man sich laut Google nicht verlassen, denn wie Google mit solchen Links umgeht, ist nicht garantiert.

Die Google Search Console meldet für eine Seite ein 'noindex', aber das lässt sich einfach nicht nachvollziehen? Das kann am Rendering der Seite per JavaScript liegen.

Die Google Search Console hat einen neuen robots.txt-Report erhalten. Dafür wird der alte robots.txt-Tester eingestellt.

SEO-Newsletter bestellen

Im monatlichen SEO-Newsletter erhaltet Ihr eine Übersicht der jeweils zehn wichtigsten SEO-Meldungen des Monats. Mit dem SEO-Newsletter bleibt Ihr auf dem Laufenden.
Ich bin mit den Nutzungsbedingungen einverstanden

Anzeige

rnkeffect

Premium-Partner (Anzeige)


Anzeigen sedo

SEO Agentur aus Darmstadt

Better sell online

Online Solutions Group

Onsite-Optimierung

Onsite-Optimierung

 

Sprecher auf

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO im Ohr, der Podcast von SEO Südwest: aktuell Folge

SEO-Beratung

Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.

Social Networks und RSS-Feed

Auszeichnungen

seo19 sieger sichtbarkeit 2020 200x200px