CrawlerLinks, die erst bei einem Mouseover aktiviert werden, bleiben für Google unsichtbar - und das, obwohl Google inzwischen in der Lage ist, JavaScript auf Webseiten auszuführen.

Vorsicht bei Links, die erst beim Berühren mit der Maus, einem sogenannten Mouseover, aktiviert werden: Google wird diese nicht erkennen und damit auch nicht berücksichtigen, und das, obwohl Google inzwischen in der Lage ist, JavaScript auszuführen. Solche Techniken werden oft genutzt, um Links vor Scrapern zu verbergen. Wie Johannes Müller in einem aktuellen Hangout erklärt, sollte man jedoch auf deren Gebrauch lieber verzichten und alternative Methoden verwenden.

Ein Nutzer hatte zuvor nachgefragt, ob das Verbergen von Links per JQuery als Cloaking anzusehen sei. Müller antwortete, Google werde die Seite wie ein Browser rendern, jedoch nicht mit der Seite interagieren und somit auch die entsprechenden Links nicht erkennen. Wenn man sicherstelen wolle, dass Google Links erkenne, müsse  man dafür sorgen, dass diese bereits beim Laden der Seite sichtbar seien. Wenn man Links lediglich für Besucher anzeigen wolle, sei dies eine Möglichkeit. Er empfehle jedoch andere Methoden, um direkt mit dem Problem der Scraper umzugehen. Das Verbergen von Links, wie es in der Anfrage beschrieben wurde, führe oftmals zu weiteren Problemen. Wörtlich sagte Müller:

"What would happen in a case like that is that we would probably not pick up those links. Because GoogleBot isn’t going to hover over every part of the page. It will pull out the page, render it once, like a browser, it is not going to interact with the page to see what is actually going to happen when you do physical things. If you need those links to be found by GoogleBot, then make sure we can find them when we load the page. If you just want to make them available for users, then sure, I think that might be an option. I think in most cases you wouldn’t want to do this. And if you are having problems with scrapers than I’d try to find something different to kind of attack that more directly then to try to obfuscate the links like this, which could end up causing more problems for your web site in search, then the scrapers anyway."

Nachfolgend die entsprechende Stelle im Video:

 

Danke an Search Engine Roundtable

 

Titelbild © AKS - Fotolia.com

 


Christian Kunz

Von Christian Kunz

SEO-Experte.
Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier


Anzeige

SEO-Vergleich


Verwandte Beiträge

Die Google Search Console meldet für eine Seite ein 'noindex', aber das lässt sich einfach nicht nachvollziehen? Das kann am Rendering der Seite per JavaScript liegen.

Wenn Google auf Webseiten mit schlechten Inhalten stößt, werden Webseiten und dort enthaltenes JavaScript gar nicht erst gerendert. Das kann dann problematisch sein, wenn per JavaScript relevante...

Das Senden unterschiedlicher HTTP-Statuscodes für Googlebot und menschliche Seitenbesucher ist laut Google nicht zu empfehlen.