URLFragment-URLs, die mit einem '#' unterteilt sind, lassen sich nicht per robots.txt für das Crawlen durch Google und andere Suchmaschinen sperren. Aber es gibt eine Alternative.

Sogenannte Fragment-URLs erkennt man am Hash-Zeichen, mit dem ein Teil der URL abgegrenzt wird. Durch den Bereich hinter dem Hash oder Doppelkreuz wird auf einen bestimmten Teil des aufgerufenen Dokuments verwiesen. Wird ein solcher Bereich zu einer URL hinzugefügt, findet kein gesonderter Aufruf an den Server statt.

In seltenen Fällen kann es geschehen, dass Google Fragment-URLs indexiert und in den Suchergebnissen anzeigt. Möchte man dies vermeiden, hilft zumindest die robots-txt-Datei nicht weiter, denn mit ihr lassen sich solche URLs nicht gegen das Crawlen sperren. Das bestätigte John Müller per Twitter:

 

Google: kein Sperren von Fragment-URLs per robots.txt möglich 

 

Als Alternative schlägt Müller vor, per JavaScript ein "Noindex"-Robots-Tag zu setzen. Zuvor sollte allerdings geprüft werden, ob das Indexieren solcher Fragment-URLs tatsächlich Nachteile bringt, oder ob es nicht einfach zugelasssen werden sollte.

 

Titelbild: Copyright Photoco - Fotolia.com

 


Christian Kunz

Von Christian Kunz

SEO-Experte.
Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier


Anzeige

SEO-Vergleich


Verwandte Beiträge

Hashtags auf Webseiten haben für Google keine besondere Bedeutung, sondern werden wie normale Worte behandelt.

Zwar ignoriert Google normalerweise den Teil in URLs, der sich hinter einem Hash-Symbol verbirgt, doch werden Links auf solche URLs dennoch gewertet.

In der Google Search Console können auch sogenannte Links to Text auftauchen, also URLs, die auf konkrete Textstellen auf einer Seite verweisen. Normalerweise zeigt die Google...

SEO-Newsletter bestellen

Im monatlichen SEO-Newsletter erhaltet Ihr eine Übersicht der jeweils zehn wichtigsten SEO-Meldungen des Monats. Mit dem SEO-Newsletter bleibt Ihr auf dem Laufenden.
Ich bin mit den Nutzungsbedingungen einverstanden