SEO-News

KopiererZur Vermeidung von Duplicate Content ist die robots.txt laut Google ungeeignet. Ein 'Disallow' in der robots.txt ist sogar noch ungünstiger als ein 'Noindex' per Meta-Robots-Tag.

Duplicate Content auf einer Webseite vermeidet man am besten mit Hilfe von Canonical-Links. Wenn es Inhalte gibt, die unter mehreren URLs erreichbar sind, lässt sich per Canonical definieren, welche URL Google indexieren soll. Weitere Signale für bevorzugte URLs liefern Sitemaps, interne Links, Redirects oder auch hreflangs. Diese Signale sollten einheitlich sein und einander nicht widersprechen.

Allerdings werden vielfach auch andere Methoden zur Vermeidung von Duplicate Content genutzt, so zum Beispiel Meta-Robots-Tags und die robots.txt. Dass sich Meta-Robots-Tags nicht dazu eignen, hatte Google bereits mehrach erklärt, so zum Beispiel im April dieses Jahres.

Noch ungünstiger ist es allerdings, als Ersatz für Canonicals einzelne URLs per 'disallow' in der robots.txt zu sperren. Wie Johannes Müller jetzt auf Reddit erklärt hat, führt das nämlich dazu, dass Google, anders als bei 'noindex' nicht einmal erkennen kann, ob die Inhalte unter der betreffenden URL den Inhalten unter einer anderen URL entsprechen. Generell seien 'noindex' und 'disallow' keine klaren Signale für die Bevorzugung bestimmter URLs.

Müller wiederholte außerdem seinen Rat, Canonicals nicht mit anderen Signalen wie 'noindex' zu vermischen - vor allem dann nicht, wenn diese einander widersprechen. Man sollte sich laut Müller nicht darauf verlassen, dass automatische Skripte erkennen, was man gerne möchte. Man sollte vielmehr darauf achten, so genau wie möglich mitzuteilen, was die Skripte zu tun haben. Dies sie die Aufgabe der SEOs.

 

Titelbild © fotofabrika - Fotolia.com

 


Christian Kunz

Von Christian Kunz

SEO-Experte.
Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier


Anzeige

SEO-Vergleich


Verwandte Beiträge

Auf Links von Seiten mit 'noindex, follow' kann man sich laut Google nicht verlassen, denn wie Google mit solchen Links umgeht, ist nicht garantiert.

Publisher, die ihre Inhalte an Partner-Websites syndizieren, müssen damit rechnen, dass die Rankingsignale auf die Partner-Website übergehen, wenn Google diese als Canonical auswählt.

Wenn Google die falschen URLs in den Suchergebnissen anzeigt, kann das daran liegen, dass die Canonical-Signale nicht einheitlich gesetzt sind. Und es gibt viele dieser Signale.

SEO-Newsletter bestellen

Im monatlichen SEO-Newsletter erhaltet Ihr eine Übersicht der jeweils zehn wichtigsten SEO-Meldungen des Monats. Mit dem SEO-Newsletter bleibt Ihr auf dem Laufenden.
Ich bin mit den Nutzungsbedingungen einverstanden

Anzeige

rnkeffect

Premium-Partner (Anzeige)


Anzeigen sedo

SEO Agentur aus Darmstadt

Better sell online

Online Solutions Group

Onsite-Optimierung

Onsite-Optimierung

 

Sprecher auf

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO im Ohr, der Podcast von SEO Südwest: aktuell Folge

SEO-Beratung

Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.

Social Networks und RSS-Feed

Auszeichnungen

seo19 sieger sichtbarkeit 2020 200x200px