Google erkennt zwar in manchen Fällen dynamisch per JavaScript gesetzte Meta-Tags; es gibt aber Ausnahmen, die man kennen sollte.
Webseiten auf JavaScript-Basis wie zum Beispiel Single Page Applications erzeugen ihre Inhalte dynamisch und unmittelbar als Folge der Interaktion mit dem Nutzer. Dadurch ist es möglich, Webseiten zu gestalten, die sich wie Apps verhalten.
Anders als herkömmliche Webseiten bestehen Single Page Applications aus nur einer einzigen Seite, die verschiedene Zustände annehmen kann. Es gibt keine unterschiedlichen Unterseiten mit eigenen URLs mehr.
Google kann mit solchen Seiten umgehen. Es gibt dabei aber bestimmte Ausnahmen, die man beachten sollte. Eine dieser Ausnahmen bezieht sich auf das Auslesen von Meta-Tags.
In einem aktuellen Test kam jetzt heraus, dass Google dynamisch gesetzte Titel und auch die Meta-Descriptions erkennt. Das zeigte sich daran, dass die Snippets der Suchergebnisse die korrekten Angaben enthielten.
Interessanterweise zeigte die Funktion "Abruf wie durch Google" in der Search Console ein anderes Bild: Der dort unter "Abrufen" angezeigte Quellcode der Seite zeigt nur die Platzhalter, die später per JavaScript ausgetauscht werden.
Probleme bei Meta-Robots
Womit der Googlebot noch nicht klarzukommen scheint, sind dynamisch gesetzte Meta-Robots-Attribute. Im genannten Fall waren alle Seiten standardmäßig auf "noindex, follow" gesetzt worden. Für einzelne Seiten wurde ein Mechanismus eingerichtet, der per JavaScript den Wechsel auf "index, follow" vornimmt. Dies hat der Googlebot jedoch nicht erkannt und die betreffenden Seiten nicht indexiert.
Also Vorsicht bei dynamischen Anpassungen der Meta-Tags: Nicht alles, was die Google Search Console anzeigt, entspricht der Realität. Und bestimmte Meta-Tags wie insbesondere die Robots-Direktive sollten auf herkömmliche Weise gesetzt werden. Im Zweifelsfall müssen ausführliche Tests durchgeführt werden, um ungewünschte Effekte zu vermeiden.
SEO-Newsletter bestellen