Aus Sicht Googles stellt Duplicate Content ein eher geringes Problem auf Webseiten dar. Zudem seien die Algorithmen sehr gut auf den Umgang mit Duplicate Content ausgerichtet.
Duplicate Content, also identische Inhalte, die auf mehreren URLs vorkommen, gehört zu den Grundproblemen, mit denen sich SEOs beschäftigen. Es gibt viele SEO-Tools, die lange Listen von Seiten mit Duplicate Content als Ergebnis produzieren. Das Beheben dieser Probleme kann je nach Umfang viel Zeit in Anspruch nehmen. Zeit, die vielleicht an anderer Stelle besser investiert werden kann, denn in den Augen Googles ist Duplicate Content längst keine große Sache mehr. Das liegt unter anderem an den Verfahren, die das Erkennen von Duplicate Content ermöglichen.
Wie Gary Illyes im vergangenen Monat erklärt hat, kommt dabei eine Art von Auktionsverfahren zum Einsatz: Zwei Seiten mit identischen oder ähnlichen Inhalten konkurrieren um ein Ranking. Googles Algorithmen wählen dann diejenige URL aus, die aufgrund ihrer Eigenschaften am wahrscheinlichsten dazu geeignet ist, die Bedürfnisse des Nutzers zu erfüllen.
Johannes Müller hat jetzt in einer Antwort auf die Anfrage eines Nutzers im Webmaster-Forum bekräftigt, dass Duplicate Content bzw. die Beschäftigung damit eher etwas für Zeiten sei, in denen man nichts besseres zu tun hat:
"Focusing on artificial metrics like that is not really that critical ... Using tools to recognize issues is great, but you need to understand how these tools work, and take their output appropriately. For example, if you're looking at a new site, it can be useful to get an overview of where potential issues with duplicate content might lie (and for that, crawling the site, using shingles and comparing them - via hash or directly, is a way to get a rough picture). However, when it comes to actually changing things, I'd recommend not blindly focusing on numbers like that and instead reviewing your content manually. 'Is the primary content and purpose of these two pages the same? -- Can they be combined into a single page?' Sometimes having the same content on multiple pages is desired, it's certainly not something Google's algorithms penalize a site for :). For the most part, I'd recommend looking at it as a user, and working your way through the site naturally. You'll always find things to improve!
... and, as always, try to keep a sense of scale in mind. If you're spending a week only focusing on filtering out some duplicate content, is that really the best use of your time? How relevant will that de-duplication be in 1 month, in 1 year, in 5 years? Google generally does a good job of dealing with these things, so sometimes it's worth just jotting the issue down in a "rainy day / when someone new comes on board / for the summer intern" list, and instead focusing on the bigger issues in the meantime."
Wie immer kommt es auf die Nutzerperspektive an. Es kann durchaus sinnvoll sein, bestimmte Inhalte auf mehreren Seiten zu verwenden, wenn es den Nutzern zugute kommt. Googles Algorithmen nehmen daran keinen Anstoß.
Also: Wer vor der Entscheidung steht, einen Tag in das Beheben von Duplicate Content zu stecken oder die Usability seiner Seite zu verbessern, sollte sich vielleicht besser für die zweite Option entscheiden.
Titelbild © tumsasedgars - Fotolia.com