SEO-News

SuchmaschinenbotNormalerweise tauchen Seiten, die per robots.txt gesperrt sind, für normale Suchanfragen nicht in den Suchergebnissen von Google auf. Passiert dies doch, sollte man sich Gedanken über die Qualität der wichtigen Seiten machen.


 Anzeige

Google kann Seiten, die per robots.txt gesperrt sind, zwar nicht crawlen. Dennoch ist es möglich, dass betreffende URLs ohne Inhalt indexiert werden und damit in den Suchergebnissen erscheinen können - etwa dann, wenn es Links gibt, die auf diese Seiten zeigen. Normalerweise erscheinen solche Seiten aber nicht in den Suchergebnissen von Google. Ausnahme sind Site-Abfragen, mit denen gezielt nach bestimmten URLs gesucht wird.

Sucht zum Beispiel jemand nach einem Produkt, das auf einer Website angeboten wird, prüft Google nicht, ob es auf der Website auch andere Seiten gibt, die per robots.txt blockiert sind, weil es bereits gute Seiten auf der Website gibt, die Google crawlen und indexieren kann. Das erklärte John Müller in den Google Search Central SEO Office Hours vom 4. Februar.


 Anzeige

Sollte Google dennoch per robots.txt gesperrte Seiten für normale Suchanfragen in den Ergebnissen anzeigen, etwa für Suchanfragen nach wichtigen Produkten eines Onlineshops, dann sei das ein mögliches Zeichen dafür, dass etwas mit den Inhalten der Seiten der Website nicht stimme, die eigentlich für diese Suchanfragen wichtig und relevant sind. Die Inhalte der betreffenden Seiten seien dann möglicherweise nicht ausreichend, um von Google als relevant für die Suchanfragen betrachtet zu werden, so Müller weiter.

Daher sollte man prüfen, ob Nutzerinnen und Nutzer per robots.txt gesperrte Seiten für normale Suchanfragen zu sehen bekommen. Ist das der Fall, sollte der Fokus auf möglichen inhaltlichen Problemen der für die Suchanfragen relevanten Seiten liegen.

 

Titelbild: Copyright Patrick Daxenbichler - Fotolia.com

 


Christian Kunz

Von Christian Kunz

SEO-Experte.
Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier


Anzeige

SEO-Vergleich


Verwandte Beiträge

Die Google Search Console hat einen neuen robots.txt-Report erhalten. Dafür wird der alte robots.txt-Tester eingestellt.

Eine Devise zum Schaffen von Helpful Content lautet: Verzichtet auf alles Unnötige und fasst Euch kurz.

Beobachtungen bei den letzten Updates lassen vermuten, dass Google KI-Inhalte abstrafen könnte. Aber ist das wirklich so?

SEO-Newsletter bestellen

Im monatlichen SEO-Newsletter erhaltet Ihr eine Übersicht der jeweils zehn wichtigsten SEO-Meldungen des Monats. Mit dem SEO-Newsletter bleibt Ihr auf dem Laufenden.
Ich bin mit den Nutzungsbedingungen einverstanden

 

 

Anzeige

rnkeffect

Premium-Partner (Anzeige)


Anzeigen sedo

SEO Agentur aus Darmstadt

SEO-Vergleich

Online Solutions Group


Onsite-Optimierung

Onsite-Optimierung

 

Sprecher auf

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO im Ohr, der Podcast von SEO Südwest: aktuell Folge

SEO-Beratung

Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.

Social Networks und RSS-Feed

Auszeichnungen

seo19 sieger sichtbarkeit 2020 200x200px