Zur Vermeidung von Duplicate Content sollte man nicht auf 'noindex' und 'nofollow' zurückgreifen, sondern besser Canonical-Links verwenden. Ansonsten kann das negative Auswirkungen auf die Rankings einer Webseite haben.
Duplicate Content entsteht, wenn identische Inhalte unter verschiedenen URLs erreichbar sind. Das kann zu Problemen in der Suche führen, weil die jeweiligen URLs miteinander konkurrieren.
Zur Vermeidung von Duplicate Content setzen viele Webmaster auf 'noindex' und 'nofollow' im Meta Robots-Tag. Das ist allerdings nicht optimal, wie John Müller in einem aktuellen Webmaster-Hangout erklärt. Auf diese Weise würde Google die Signale der Seiten nämlich ignorieren. Auch wenn die Inhalte identisch sind, können andere Merkmale wie zum Beispiel Backlinks vorhanden sein, die sich auf die Rankings auswirken können. Diese Signale gehen bei 'noindex' verloren, denn Google bewertet nur Seiten, die auch indexiert sind. Auch das teilte Müller im Hangout mit.
Besser ist es also, bei bestehendem Duplicate Content auf Canonical-Links zu setzen. Dann kann Google zumindest die Signale der einzelnen Seiten auswerten und berücksichtigen.
Übrigens ist auch das Sperren per robots.txt nicht zum Umgang mit Duplicate Content geeignet - aus ähnlichen Gründen wie bei "noindex". Die robots.txt ist sogar noch weniger zu empfehlen, weil der Googlebot dann nicht einmal zum Aufruf der Seite berechtigt ist und keinerlei Informationen erfassen kann.
Titelbild © fotofabrika - Fotolia.com