SEO-News

CrawlerGoogle versendet per Search Console Warnungen an Webmaster, wenn Javascript- oder CSS-Ressourcen blockiert sind. Im schlimmsten Fall droht ein schlechteres Ranking.

Dass Google Zugriff auf alle Javascript- und CSS-Dateien haben muss, um die Darstellung einer Webseite zu überprüfen, ist nicht neu. Mit Hilfe dieser Dateien kann Google beispielsweise erkennen, ob eine Seite für die Darstellung auf Smartphones optimiert ist.

Zur Überprüfung auf blockierte Ressourcen hatte Google erst im März eine neue Funktion in der Search Console eingeführt, die Probleme beim Abruf bestimmter Dateien durch den Googlebot anzeigt.Google Search Console: blockierte Ressourcen

Neu ist, dass Google jetzt auch per Nachricht in der Search Console auf Webmaster zugeht, deren Seiten das Abrufen von Javascript und CSS blockieren.Google versendet Mitteilungen, wenn die Javascript- oder CSS-Ressourcen einer Webseite nicht gecrawlt werden können In der Mitteilung heißt es unter anderem, dass als Folge der Probleme ein schlechteres Ranking drohen kann. Gleichzeitig werden in der Nachricht auch Vorschläge zur Behebung der Probleme gemacht:

  1. Testen Sie die Seite durch die Funktion "Abruf wie durch Google" in der Google Search Console.
  2. Beheben Sie die fraglichen Stellen in Ihrer robots.txt
  3. Nach der Fehlerbeseitigung rufen Sie erneut die Funktion "Abruf wie durch Google" in der Search Console auf.

Neben dem Blockieren von Javascript und CSS gibt es noch viele weitere Ursachen, die zu Problemen beim Crawlen und Indexieren von Webseiten führen können. Welche das sind und welche Lösungen es dazu gibt, lesen Sie hier.

 

Bild © AKS - Fotolia.com

 


Christian Kunz

Von Christian Kunz

SEO-Experte.
Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier


Anzeige

SEO-Vergleich


Verwandte Beiträge

Crawler bzw. Bots, die auf einer Website zugelassen sind, sollte man laut John Müller von Google nicht fragen, ob sie ein Bot sind, sondern ihnen einfach die gewünschten Inhalte zeigen.

Der Wechsel der IP-Adresse für eine Website wirkt sich laut Google normalerweise nicht auf die Rankings aus. Es kann aber zu Veränderungen beim Crawlen kommen.

Wenn es auf einer Website zum Erscheinen einer großen Anzahl nicht relevanter und nicht funktionierender URLs kommt, schadet das weder der Indexierung noch der Qualitätsbewertung durch Google.

 

 

Anzeige

rnkeffect

Premium-Partner (Anzeige)


Anzeigen sedo

SEO Agentur aus Darmstadt

SEO-Vergleich

Online Solutions Group


Onsite-Optimierung

Onsite-Optimierung

 

Sprecher auf

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO im Ohr, der Podcast von SEO Südwest: aktuell Folge

SEO-Beratung

Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.

Social Networks und RSS-Feed

Auszeichnungen

seo19 sieger sichtbarkeit 2020 200x200px