SEO-News

CrawlerGoogle versendet per Search Console Warnungen an Webmaster, wenn Javascript- oder CSS-Ressourcen blockiert sind. Im schlimmsten Fall droht ein schlechteres Ranking.

Dass Google Zugriff auf alle Javascript- und CSS-Dateien haben muss, um die Darstellung einer Webseite zu überprüfen, ist nicht neu. Mit Hilfe dieser Dateien kann Google beispielsweise erkennen, ob eine Seite für die Darstellung auf Smartphones optimiert ist.

Zur Überprüfung auf blockierte Ressourcen hatte Google erst im März eine neue Funktion in der Search Console eingeführt, die Probleme beim Abruf bestimmter Dateien durch den Googlebot anzeigt.Google Search Console: blockierte Ressourcen

Neu ist, dass Google jetzt auch per Nachricht in der Search Console auf Webmaster zugeht, deren Seiten das Abrufen von Javascript und CSS blockieren.Google versendet Mitteilungen, wenn die Javascript- oder CSS-Ressourcen einer Webseite nicht gecrawlt werden können In der Mitteilung heißt es unter anderem, dass als Folge der Probleme ein schlechteres Ranking drohen kann. Gleichzeitig werden in der Nachricht auch Vorschläge zur Behebung der Probleme gemacht:

  1. Testen Sie die Seite durch die Funktion "Abruf wie durch Google" in der Google Search Console.
  2. Beheben Sie die fraglichen Stellen in Ihrer robots.txt
  3. Nach der Fehlerbeseitigung rufen Sie erneut die Funktion "Abruf wie durch Google" in der Search Console auf.

Neben dem Blockieren von Javascript und CSS gibt es noch viele weitere Ursachen, die zu Problemen beim Crawlen und Indexieren von Webseiten führen können. Welche das sind und welche Lösungen es dazu gibt, lesen Sie hier.

 

Bild © AKS - Fotolia.com

 

Verwandte Beiträge

Eine aktuelle Studie zeigt, dass die Crawler verschiedener KI-Tools mit JavaScript nicht umgehen können. Hier hat Google noch große Vorteile.

Wenn Google aus technischen Gründen beim Crawlen an Grenzen stößt, kann das Aufteilen der Ressourcen auf mehrere Domains oder Subdomains helfen.

Die Vorstellung, dass Google URLs direkt crawlt, auf deren Link der Googlebot stößt, ist falsch. Vielmehr werden die URLs zuvor gesammelt und später besucht.

 

 

Anzeige

rnkeffect

Premium-Partner (Anzeige)


Anzeigen Digitaleffects

Online Solutions Group

Onsite-Optimierung

Onsite-Optimierung

 

Sprecher auf

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO im Ohr, der Podcast von SEO Südwest: aktuell Folge

SEO-Beratung

Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.

Social Networks und RSS-Feed

Auszeichnungen

seo19 sieger sichtbarkeit 2020 200x200px