
Google warnt: bei manueller Maßnahme wegen Site Reputation Abuse nicht 'noindex' und Sperre per robots.txt kombinieren

Google weist jetzt darauf hin, dass bei einer manuellen Maßnahme wegen Site Reputation Abuse die betreffenden Seiten nicht per robots.txt gesperrt werden sollten.
Nachdem Google auch in Deutschland einige Websites wegen Site Reputation Abuse mit einer manuellen Maßnahme belegt hatte, gab es einzelne Seiten, die kurze Zeit später wieder in den Suchergebnissen erschienen waren - und das, obwohl sie auf "noindex" gesetzt waren. Eine mögliche Erklärung: Die betreffenden Seiten waren gleichzeitig per robots.txt für das Crawlen gesperrt worden. Die manuelle Maßnahme war offenbar aufgrund des "noindex" aufgehoben worden, während Googles Systeme dieses Meta Tag wegen des "disallow" in der robots.txt nicht auslesen konnten.
Sie benötigen SEO-Beratung für Ihre Website?
Jetzt unverbindlich anfragenUm solche Tricks zukünftig auszuschließen, hat Google jetzt die Empfehlungen zu manuellen Maßnahmen im Zusammenhang mit Site Reputation Abuse erweitert. Dort heißt es nun, um sicherzustellen, dass die Noindex-Regel greife, sollte man die betreffenden Inhalte nicht per robots.txt sperren.
Das Sperren per robots.txt bei einer manuellen Maßnahme wegen Site Reputation Abuse - ob mit oder ohne "noindex" - ist also keine Alternative, um die manuelle Maßnahme wieder loszuwerden.
SEO-Newsletter bestellen
Verwandte Beiträge


Google Site Reputation Abuse: Sichtbarkeit einiger Websites ist wiederhergestellt
