Skip to main content
SEO-News

Scraper-Seiten und wie die Suchmaschinen selbst mit fremden Inhalten umgehen

Christian Kunz
03. März 2014
Zuletzt aktualisiert: 03. März 2014

Scraper-Seiten: Wo fängt es an?Erst vor kurzem hatte Google eine Möglichkeit angekündigt, Seiten mit kopierten Inhalten zu melden. Diese "Scraper Report" genannte Funktion soll dafür sorgen, dass Inhalte von Originalseiten besser ranken als Inhalte von Seiten, welche diese Inhalte kopieren. Doch auch Google und andere Suchmaschinen bewegen sich durch die Darstellung von Inhalten anderer Seiten stets in einem Grenzbereich. Wieviele Informationen anderer Webseiten darf eine Suchmaschine darstellen, ohne dass sie sich den Vorwurf des Kopierens gefallen lassen muss?


Am Donnerstag der vergangenen Woche gab es die Nachricht, dass Google die Möglichkeit zum Melden so genannter Scraper Sites anbieten würde. Damit sollte es einen Mechanismus geben, der für ein besseres Ranking von Webseiten mit originären Inhalten gegenüber solchen Seiten mit lediglich kopierten Inhalten sorgt.

Sieht man sich jedoch die Suchergebnisseiten von Google, Bing und Co. einmal an, dann stellt man fest, dass auch die dort gezeigten Inhalte - naturgemäß - solche sind, die von anderen Seiten übernommen werden. Dies ist auch gewünscht und normalerweise kein Problem. Doch in letzter Zeit gibt es die Tendenz, dass der Umfang der auf den SERPs gezeigten Inhalte mehr und mehr zunimmt. Ein gutes Beispiel ist der Knowledge Graph, der sich aus Wikipedia und anderen Quellen bedient. Oftmals genügt schon das Durchlesen der Informationen, die im Kasten rechts auf den SERPs dargestellt werden, um eine Frage zu beantworten. Ein Klick auf die Quellseite ist dann gar nicht mehr erforderlich. Somit geht diesen Seiten Traffic verloren, die Suchmaschinen profitieren dagegen.

In einem Tweet hat nun Dan Baker, nach eigener Auskunft Experte für Online-Marketing, diesen Umstand kritisiert:

Dan Baker kritisiert die Übernahme zu vieler Informationen durch die Suchmaschinen

Mittlerweile fast 35.000 Retweets zeigen, dass dieses Thema viel Interesse hervorruft. Die Frage, die sich die Suchmaschinenanbieter stellen müssen, lautet also tatsächlich, wie viele Informationen dargestellt werden dürfen, um einerseits die eigenen Interessen sowie die der Suchmaschinen-Nutzer zu bedienen, ohne andererseits die Interessen der Webseitenbetreiber zu vernachlässigen.

Im Kern ging es auch bei der Diskussion um das Leistungsschutzrecht um diese Frage. Hier standen die Interessen der Verleger denen von Google gegenüber. Google zeigt in seiner News-Suche Snippets aus aktuellen Online-Nachrichten an und sorgt gleichzeitig für Traffic auf den Quellseiten. Doch auch hier besteht die Gefahr, dass manche Nutzer gar nicht mehr auf die Quellseite klicken, wenn ihnen die auf Google gezeigten Informationen bereits genügen.

 

Christian Kunz

Von Christian Kunz

SEO-Experte.
Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier


{extravote 1}

 


 

Verwandte Beiträge

Anzeige

rnkeffect

Premium-Partner (Anzeige)


Anzeigen Digitaleffects

Online Solutions Group

Farbentour

Onsite-Optimierung

Onsite-Optimierung

 

Sprecher auf

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Jetzt vernetzen

SEO-Glossar

SEO-Glossar