SuchmaschinenbotWenn das JavaScript von Anzeigen auf einer Webseite aufgrund der robots.txt von Google nicht abgerufen werden kann, ist das kein Problem.

Google weist immer wieder darauf hin, dass Ressourcen, die zur Darstellung einer Webseite benötigt werden, nicht per robots.txt blockiert sein sollten. Das bezieht sich jedoch nicht auf Anzeigen auf einer Webseite. Darauf wies Johannes Müller per Twitter hin. Zuvor hatte ein Nutzer geschrieben, er habe das Werbenetzwerk gewechselt, und im neuen Netzwerk sei das JavaScript per robots.txt gesperrt.

Müller schrieb, das sei in Ordnung, solange es sich nicht um die Hauptinhalte der Webseite handele.

 

Google: Blockieren des JavaScripts von Werbung per robots.txt ist nicht schlimm 

Um zu prüfen, ob wichtige Ressourcen einer Webseite für das Crawlen blockiert sind, kann man verschiedene Google-Tools verwenden, so zum Beispiel den Test auf Mobilfreundlichkeit, das URL Inspection Tool in der neuen Google Search Console sowie den robots.txt-Tester in der alten Search Console.

 

Titelbild: Copyright Patrick Daxenbichler - Fotolia.com

 


Christian Kunz

Von Christian Kunz

SEO-Experte.
Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier


Anzeige

SEO-Vergleich


Verwandte Beiträge

Die Google Search Console meldet für eine Seite ein 'noindex', aber das lässt sich einfach nicht nachvollziehen? Das kann am Rendering der Seite per JavaScript liegen.

Die Google Search Console hat einen neuen robots.txt-Report erhalten. Dafür wird der alte robots.txt-Tester eingestellt.

Google AdSense stellt die Bezahlung von Publishern von Klicks auf Impressionen um und ändert auch den Revenue Share. Das könnte zu noch mehr Anzeigen auf Websites führen.

SEO-Newsletter bestellen

Im monatlichen SEO-Newsletter erhaltet Ihr eine Übersicht der jeweils zehn wichtigsten SEO-Meldungen des Monats. Mit dem SEO-Newsletter bleibt Ihr auf dem Laufenden.
Ich bin mit den Nutzungsbedingungen einverstanden