Webseiten, die zusätzliche Inhalte per JavaScript nachladen, werden möglicherweise nicht vollständig vom Googlebot gecrawlt, denn dieser berücksichtigt nur den initialen Zustand der Seite.
Wenn auf einer Webseite Inhalte nach dem initialen Laden ausgetauscht werden, kann es sein, dass diese Inhalte nicht vom Googlebot erfasst werden. Das betrifft zum Beispiel Seiten mit einem Slider. Auch Informationen, die erst nach einem Klick geladen werden, werden vom Googlebot nicht erfasst.
Ein Nutzer hatte im Google-Forum für JavaScript-Seiten beschrieben, dass auf seiner Webseite bestimmte Produktinformationen nicht sofort geladen werden, um die Seitenlänge zu begrenzen. Zusätzliche Informationen müssen über einen Link aufgerufen werden, der das Nachladen über eine JavaScript-Funktion anstößt.
Johannes Müller antwortete, dass diese Inhalte vermutlich nicht vom Googlebot gecrawlt würden. Anders sei es, wenn die Inhalte bereits im DOM (Document Object Model) enthalten seien. Das sei kein Problem.
Inhalte, die erst nach dem initialen Aufbau einer Seite geladen werden, können vom Googlebot ebenfalls nicht abgerufen werden. Wenn es zum Beispiel einen Slider gebe, der alle 30 Sekunden neue Inhalte lade, so würden diese nicht erfasst.
Wenn man also dafür sorgen möchte, dass bestimmte Inhalte gecrawlt und indexiert werden, sollte man diese bereits beim initialen Laden der Seite bereitstellen.
Bild © maciek905- Fotolia.com