CrawlerDie technischen Empfehlungen von Google für die Crawlbarkeit von AJAX-Seiten haben keine Gültigkeit mehr. Als Grund nennt das Unternehmen, dass man inzwischen in der Lage sei, Java Script auszuführen und zu verstehen. Webseitenbetreiber, die ihre Seiten nach den alten Vorgaben erstellt haben, müssen sich aber keine Sorgen machen.

Das Crawlen und Indexieren von dynamischen Seiten, die auf AJAX basieren (Asynchronous Java Script and XML), bereitete Google und anderen Suchmaschinen lange Zeit Probleme, da die Inhalte der Seiten erst im Zuge des Aufrufs generiert werden. Für die Crawler war nur der auszuführende Java Script-Code sichtbar. Aus diesem Grund hatte Googe Empfehlungen abgegeben, wie solche Seiten aufzusetzen sind, damit auch deren Inhalte erfasst und indexiert werden können. Dazu gehört unter anderem das Ausliefern eines HTML-Snapshots der einzelnen Seiten, die unter einer eigenen URL zur Verfügung gestellt werden.Wie Google AJAX-Seiten crawlt

 

Ankündigung der Änderung bereits im März

Im März dieses Jahres hatte es dann Gerüchte gegeben, dass sich etwas an der Art und Weise ändern könnte, wie Google AJAX-Seiten auswertet. Einer der Gründe dafür war, dass Google inzwischen in der Lage ist, Java Script weitgehend zu interpretieren.

 

Vorsicht: CSS und Java Script nicht blockieren

Inzwischen ist aus diesen Gerüchten Gewissheit geworden. Wie Google schreibt, haben die Vorgaben für AJAX-Seiten keine Gültigkeit mehr. Solange Java Script- und CSS-Dateien nicht blockiert würden, könne Google AJAX-Webseiten wie moderne Browser rendern und verstehen. Zudem empfiehlt Google das Prinzip des Progressive Enhancement (schrittweise Verbesserung). Dabei handelt es sich um eine Strategie des Webdesigns, die auf semantisches HTML-Markup und externe Stylesheet- und Scripting-Technologien sowie auf Accessibility setzt.

Google beruhigt auch Webseitenbetreiber, die ihre Seiten auf Basis der alten Empfehlungen für AJAX erstellt haben. Solange die Indexeirung funktioniere, brauche man nichts zu ändern. Für neue Seiten empfiehlt Google jedoch das Vermeiden der _escaped_fragment_URLs. Statt dieser würde Google zukünftig die #!-URLs crawlen, rendern und indexieren.

 

Titelbild © AKS - Fotolia.com

 


Christian Kunz

Von Christian Kunz

SEO-Experte.
Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier


Anzeige

SEO-Vergleich


Verwandte Beiträge

Die Google Search Console meldet für eine Seite ein 'noindex', aber das lässt sich einfach nicht nachvollziehen? Das kann am Rendering der Seite per JavaScript liegen.

Google rät davon ab, wichtige Inhalte per CSS mit ::before und ::after in eine Webseite einzufügen. Es könnte nämlich sein, dass Google die nicht indexiert.

Wenn Google auf Webseiten mit schlechten Inhalten stößt, werden Webseiten und dort enthaltenes JavaScript gar nicht erst gerendert. Das kann dann problematisch sein, wenn per JavaScript relevante...