SEO-News

Bots und CrawlingGoogle ist seit einiger Zeit in der Lage, Javascript von Webseiten zu interpretieren. Doch nicht immer entspricht das Ergebnis den Wünschen. In einem aktuellen Fall im Google Webmaster Help-Forum geht es um eine Website, deren Unterseiten nur teilweise korrekt in den Google-Index aufgenommen wurden.

Die Interpretation von Javascript durch Google bei AJAX-basierten Webseiten gibt es schon seit einiger Zeit und gehört inzwischen zur Normalität. Manchmal kann es jedoch zu Problemen kommen. Ein Beispiel dafür zeigt ein aktueller Fall im Google Webmaster Help-Forum.

 

Der konkrete Fall

Die betroffene Webseite ist eine Gen-Datenbank, die wie eine Suchmaschine bedient werden kann. Diese besteht aus nur einer einzigen Seite, deren Inhalte komplett mit Hilfe von Javascript dargestellt werden. Dabei kommt das Open-Source-Framework AngularJS von Google zum Einsatz. Solche Konstruktionen sind in der heutigen Zeit nichts Ungewöhnliches mehr.

Der Webmaster der Webseite fragt im Thread, warum nicht alle Unterseiten von Google korrekt interpretiert und in den Index aufgenommen wurden. Bei einigen Seiten wurde das Javascript nicht ausgeführt; statt der Inhalte erscheinen die entsprechenden Methoden in den Suchtreffern. Versuche per Google Webmaster Tools, mit denen man die Interpretation der Seiten durch Google testen kann, sind dagegen allesamt erfolgreich verlaufen.

 

Mögliche Ursachen

In den folgenden Antworten im Thread werden einige Erklärungsversuche für dieses Verhalten geliefert:

  • Es kann ein Zusammenhang zwischen der Crawling-Rate und den Ergebnissen bestehen. Je größer die Zahl der gecrawlten Seiten, desto eher könne es zu Fehlern kommen. Die Ursache für ein solches Verhalten ist oftmals schlicht die Überlastung des Servers, der das Javascript ausführt.
  • Die Komplexität des Javascripts sei dagegen auszuschließen, da dieses von Googles eigenem Javascript-Framwork AngularJS stamme.
  • Es wird empfohlen, für jede Seite eine vorberechnete Seite bereitzustellen und diese per Sitemap anzugeben. Zusätzlich muss noch ein Canonical-Link auf die bevorzugte Seite gesetzt werden.
  • John Mueller von Google Schweiz rät dazu, die URLs der eingebetteten Inhalte zu überprüfen. Falls es hier zu fehlerhaften Verlinkungen komme, müsse man - wie bei normalen Links auch - entsprechende Redirects einrichten.

Die tatsächliche Ursache für das im Thread beschiebene Problem konnte bis jetzt nicht vollständig geklärt werden. Die Diskussion zeigt jedoch, welche Schwierigkeiten es bei der Indexierung von reinen Javascript-Webseiten geben kann. Deren Zahl dürfte sich zukünftig aufgrund der wachsenden Ansprüche an Dynamik und Individualisierung der Inhalte noch erhöhen.

 

Bild © AKS - Fotolia.com

 


Christian Kunz

Von Christian Kunz

SEO-Experte.
Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier


Anzeige

SEO-Vergleich


Verwandte Beiträge

Damit Google eine Website crawlen kann, muss der Webserver die richtige HTTP-Antwort an den Googlebot senden. Ansonsten kann es zu Problemen kommen.

Die Google Search Console meldet für eine Seite ein 'noindex', aber das lässt sich einfach nicht nachvollziehen? Das kann am Rendering der Seite per JavaScript liegen.

Google hat angekündigt, das Crawl Limiter Tool, mit dem sich die Crawl-Rate des Googlebots manuell reduzieren lässt, zum 8. Januar einzustellen.

 

 


 

 

 

 

 

Anzeige

rnkeffect

Premium-Partner (Anzeige)


Anzeigen sedo

SEO Agentur aus Darmstadt

SEO-Vergleich

Online Solutions Group


Onsite-Optimierung

Onsite-Optimierung

 

Sprecher auf

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO im Ohr, der Podcast von SEO Südwest: aktuell Folge

SEO-Beratung

Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.

Social Networks und RSS-Feed

Auszeichnungen

seo19 sieger sichtbarkeit 2020 200x200px