AJAX-Webseiten stellen Google vor andere Herausforderungen als Webseiten, die statisches HTML verwenden. Wirkt sich das auf das Ranking aus? Bevorzugt Google statisches HTML?
AJAX steht für Asynchronous JavaScript and XML und beschreibt eine Technik, bei der Inhalte dynamisch im Browser berechnet werden. Das bedeutet: Der Server liefert keinen fertigen HTML-Code mehr aus - dieser wird erst im Client berechnet.
Lange Zeit konnten AJAX-Webseiten nur mit Hilfe eines Tricks gecrawlt werden. Googles inzwischen nicht mehr gültige Vorgaben für AJAX sahen es vor, dass der Webserver für jede Seite ein statisches Abbild, einen sogenannten Snapshot, liefern musste.
Inzwischen ist Google jedoch in der Lage, das JavaScript von AJAX-Seiten auszuführen. Somit steht dem Crawlen und Indexieren solcher Seiten eigentlich nichts mehr im Wege, und Google sollte solche Seiten in der gleichen Weise behandeln wie Webseiten, die auf statischen HTML basieren.
Das bestätigte jetzt gerade Google-Mitarbeiter Gary Illyes auf der Google Dance Tokyo:
"As far as Googlebot can see content, it doesn’t matter whether it’s Ajax or static. Googlebot can render almost all pages now. It was not the case in past days. We try to render and evaluate what users really see in their browser. So, in general we evaluate ajax content and static content equally."
Das bedeutet: Solange Google eine Seite einwandfrei abrufen und rendern kann, besteht kein Unterschied zwischen AJAX und statischem HTML. Damit das gegeben ist, sollten diese Empfehlungen berücksichtigt werden:
- JavaScript nicht per robots.txt blockieren
- Testen, ob Google die Seite abrufen und rendern kann ("Abruf wie durch Google" in der Google Search Console)
- Dynamische Inhalte, die erst bei einer Nutzeraktion ausgeführt werden, kann der Googlebot nicht abrufen (zum Beispiel onClick oder mouseOver)
- Jede Seite sollten über eine einzigartige URL verfügen. So kann Google zum Beispiel auf Seiten mit endless Scrolling nicht alle Inhalte erkennen.
Wenn diese Punkte beachtet werden, besteht kaum eine Gefahr, dass eine AJAX-Seite von Google schlechter platziert wird als eine statische HTML-Seite.
Eine Einschränkung müssen SEOs bei AJAX-Seiten allerdings derzeit noch hinnehmen: Viele SEO-Tools unterstützen diese Seiten noch nicht. Wer zum Beispiel große und umfangreiche Webseiten untersuchen möchte, der ist auf passende Tools wie zum Beispiel Crawler angewiesen. Die derzeit am Markt verfügbaren Crawler wie Screaming Frog oder Xenu sind jedoch noch nicht in der Lage, das JavaScript auf diesen Seiten auszuführen und damit das resultierende HTML zu erzeugen. Somit ist man noch stark auf manuelle Tests von Einzelseiten angeweisen, indem man beispielsweise die Google Search Console nutzt.
Titelbild © makc76 - Fotolia.com