Tipps und Tricks zu SEO

Android-BotsUm zu steuern, welche Seiten von Google und anderen Suchmaschinen gecrawlt und indexiert werden sollen, kann man die robots.txt-Datei und das Meta Robots-Attribut verwenden. Vielen Webmastern ist aber unklar, wann sie welches Instrument einsetzen sollten. Um das zu verstehen, muss vor allem die Funktionsweise der Suchmaschinen bekannt sein.

Es ist eine der ewigen Fragen in der SEO: Sollte man Seiten per robots.txt oder per 'noindex'-Attribut sperren? Dabei wird oft vergessen, dass diese beiden Methoden nichts miteinander zu tun haben, denn die robots.txt bezieht sich auf das Crawlen der Seiten, während das 'noindex'-Attribut aussagt, dass die betreffende Seite nicht indexiert werden soll. Um dies ein wenig zu verdeutlichen, folgt zunächst eine Beschreibung der grundsätzlichen Funktionsweise von Suchmaschinen.

 

Die Funktionsweise der Suchmaschinen: crawlen und indexieren

Im Grunde ist das Prinzip, nach denen Suchmaschinen arbeiten, recht simpel: Aus der großen Menge von Webseiten werden einige Seiten als Startpunkt ausgewählt. Ausgehend von diesen Seiten werden über die dort vorhandenen Links weitere Seiten aufgerufen. Die dort vorgefundenen Inhalte wie Texte und Metadaten werden ausgelesen und bereinigt. Das alles übernimmt ein Crawler wie beispielsweise der Googlebot.

Die vorgefundenen Daten werden in einer Datenbank gespeichert. Erfasste URLs werden in eine Warteliste eingetragen, und die betreffenden Seiten werden zu einem späteren Zeitpunkt aufgerufen.

 

Crawlen und Indexieren und der Einfluss von robotx.txt und 'noindex'

 

Anhand dieses Prozesses kann verdeutlicht werden, wo robots.txt und "noindex" ansetzen: Seiten, die in einer robots.txt-Datei gesperrt sind, werden vom Crawler gar nicht erst aufgerufen. Die dort vorhandenen Inhalte inklusive der dort vorhandenen Links bleiben der Suchmaschine also verborgen.

Falls das Meta Robots-Attribut "noindex" gesetzt ist, werden die auf einer Seite gefundenen Inhalte zwar gecrawlt, aber nicht indexiert. Zudem werden die dort gefundenen Links über kurz oder lang nicht mehr gewertet.

 

Wann sollten Seiten per robots.txt gesperrt werden und wann per 'noindex'?

Die Darstellung zeigt, dass das Sperren per robots.txt und "noindex" völlig unterschiedliche Effekte hat. Je nach gewünschtem Verhalten der Suchmaschine muss das eine oder das andere Instrument gewählt werden. Man sollte sich dazu folgende Fragen stellen:

  • Sollen die Seite gecrawlt und ihre Inhalte indexiert werden? In diesem Fall darf es weder per robots.txt noch per Meta Robots eine Sperre geben.
  • Soll die Seite gecrawlt werden, ohne dass ihre Inhalte im Index landen? In diesem Fall darf nur eine Sperrung per "noindex" erfolgen.
  • Soll die Seite weder gecrawlt noch indexiert werden? Dies ist ein Sonderfall, denn hier kommt es darauf an, ob die Seite schon im Index enthalten ist oder nicht. Siehe dazu den folgenden Abschnitt.

 

Falscher Einsatz der robots.txt kann ungewünschte Folgen haben

Ein besonders häufiger Fehler, der im Zusammenspiel mit der robots.txt-Datei begangen wird, ist der folgende: Eine Seite ist bereits bei Google indexiert, soll aber aus dem Index entfernt werden. Anstatt nun die Seite per "noindex" zu kennzeichnen, wird sie in der robots.txt per "disallow" gesperrt. Das hat aber zur Folge, dass die Seite weiterhin im Index verbleibt, Google aber keine Description mehr im Snippet anzeigt, sondern lediglich einen Hinweis, dass die Seite per robots.txt gesperrt ist:

 

Google: Hinweis auf gesperrte robots.txt

 

Das richtige Vorgehen in diesem Fall wäre also, die Seite zunächst per Meta Robots auf "noindex" zu setzen. Wenn die Seite aus dem Index entfernt wurde, kann sie anschließend per "disallow" in der robots.txt für die Crawler gesperrt werden.

 

Fazit

Das Crawlen einzelner Seiten durch die Suchmaschinen wird per robots.txt-Datei gesteuert, das Indexieren per Meta Robots-Attribut. Vorsicht ist geboten, wenn bereits indexierte Seiten per robots.txt-Datei gesperrt werden - in diesem Fall kann es zu unerwünschten Effekten auf den Suchergebnisseiten kommen.

 

Titelbild: Google

 


Christian Kunz

Von Christian Kunz

SEO-Experte. Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier.



Anzeige von Clixado

Artikelveröffentlichungen auf starken Magazinen und Blogs

Wir kooperieren mit unzähligen Verlagen und Bloggern und können daher auf über 4000 Blogs zu fast allen Themengebieten Artikelplätze anbieten:

    - Nachhaltiger Linkaufbau, kein SEO-Netzwerk
    - Hohe Sichtbarkeitswerte, keine expired Domains
    - Einmalzahlung, keine Vertragsbindung

Für jede Artikelveröffentlichung erstellen wir hochwertigen Content mit mindestens 400 Wörtern und publizieren den Artikel mit einem DoFollow-Bachlink zu deiner Seite auf einem Magazin oder Blog deiner Wahl.

Frag uns unverbindlich nach Beispielen





SEO-Newsletter bestellen

Mit dem SEO-Newsletter erhältst Du einmal pro Monat eine Übersicht der wichtigsten SEO-Meldungen auf SEO Südwest sowie Ankündigungen wichtiger SEO-Veranstaltungen. Zum Abonnieren des SEO-Newsletters ist die Einwilligung in die Datenschutzhinweise erforderlich. Zum Bestellen genügt die Angabe der E-Mail-Adresse. Per Klick auf den entsprechenden Button unten kann das Abonnement jederzeit gekündigt werden.
Nutzungsbedingungen

SEO-Checkliste

SEO-Checkliste

 

Anzeigen












SEO-Beratung

Suchmaschinenoptimierung und SEO-Beratung für Karlsruhe, Baden und die Pfalz

 

06340/351-943

 

info(at)seo-suedwest.de

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Sprecher auf

Auszeichnungen

iBusiness Top-100-Liste SEO-Dienstleister

SEO Südwest: Platz 5 bei den SEO-Wahlen 2014 zum besten deutschen SEO-Blog

 

SEO-united.de Tipp 12/15

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO-Kalender 2018

SEO-Kalender 2018

 

Onsite-Optimierung

Onsite-Optimierung

 

SEO- und Suchmaschinenblogs

SEO-Tipps und SEO-Tricks

IMAGE 'Noindex' oder robots.txt - wann ist welches Instrument das richtige?
Freitag, 09. Februar 2018
Um zu steuern, welche Seiten von Google und anderen Suchmaschinen gecrawlt und indexiert werden... Weiterlesen...
IMAGE Lighthouse: ein Top-Tool für die Performancemessung von Webseiten und PWAs
Montag, 16. Oktober 2017
Lighthouse ist ein Tool, mit dem man die Performance und die Nutzerfreundlichkeit von Progressive... Weiterlesen...
IMAGE Tipp: Reddit für den Aufbau von Backlinks nutzen
Samstag, 17. Januar 2015
Die Social-News-Plattform Reddit erlaubt den Aufbau von guten Backlinks - wenn man sich an... Weiterlesen...

News aus dem Blog

IMAGE Vielen Dank für die Glückwünsche, Google!
Dienstag, 07. November 2017
Google hat mich mit einem persönlichen Geburtstags-Doodle überrascht. Vielen Dank dafür! Weiterlesen...
IMAGE SEO: Können 'Ausverkauft'-Seiten in Online-Shops positive Rankingeffekte haben?
Sonntag, 01. Februar 2015
Wie geht Google eigentlich mit Seiten aus Online-Shops um, die nicht mehr lieferbare Produkte... Weiterlesen...
IMAGE AMP - Is GDPR-compliant usage possible?
Sonntag, 29. April 2018
The AMP framework was established to speed up mobile websites. Normally, AMP pages are served via... Weiterlesen...

 Eine Auswahl zufriedener Kunden

Rebel - Bad Küche Raum
Schöne Haare Karlsruhe
kr3m
feel-perfect.eu - Die Nährstoffexperten border=
Flintec IT GmbH
ESM Academy
Ringladen

Verbinden und Informationen zu SEO Südwest

Impressum und Datenschutz

Social Networks und RSS-Feed