SEO-News

CrawlerDie technischen Empfehlungen von Google für die Crawlbarkeit von AJAX-Seiten haben keine Gültigkeit mehr. Als Grund nennt das Unternehmen, dass man inzwischen in der Lage sei, Java Script auszuführen und zu verstehen. Webseitenbetreiber, die ihre Seiten nach den alten Vorgaben erstellt haben, müssen sich aber keine Sorgen machen.

Das Crawlen und Indexieren von dynamischen Seiten, die auf AJAX basieren (Asynchronous Java Script and XML), bereitete Google und anderen Suchmaschinen lange Zeit Probleme, da die Inhalte der Seiten erst im Zuge des Aufrufs generiert werden. Für die Crawler war nur der auszuführende Java Script-Code sichtbar. Aus diesem Grund hatte Googe Empfehlungen abgegeben, wie solche Seiten aufzusetzen sind, damit auch deren Inhalte erfasst und indexiert werden können. Dazu gehört unter anderem das Ausliefern eines HTML-Snapshots der einzelnen Seiten, die unter einer eigenen URL zur Verfügung gestellt werden.Wie Google AJAX-Seiten crawlt

 

Ankündigung der Änderung bereits im März

Im März dieses Jahres hatte es dann Gerüchte gegeben, dass sich etwas an der Art und Weise ändern könnte, wie Google AJAX-Seiten auswertet. Einer der Gründe dafür war, dass Google inzwischen in der Lage ist, Java Script weitgehend zu interpretieren.

 

Vorsicht: CSS und Java Script nicht blockieren

Inzwischen ist aus diesen Gerüchten Gewissheit geworden. Wie Google schreibt, haben die Vorgaben für AJAX-Seiten keine Gültigkeit mehr. Solange Java Script- und CSS-Dateien nicht blockiert würden, könne Google AJAX-Webseiten wie moderne Browser rendern und verstehen. Zudem empfiehlt Google das Prinzip des Progressive Enhancement (schrittweise Verbesserung). Dabei handelt es sich um eine Strategie des Webdesigns, die auf semantisches HTML-Markup und externe Stylesheet- und Scripting-Technologien sowie auf Accessibility setzt.

Google beruhigt auch Webseitenbetreiber, die ihre Seiten auf Basis der alten Empfehlungen für AJAX erstellt haben. Solange die Indexeirung funktioniere, brauche man nichts zu ändern. Für neue Seiten empfiehlt Google jedoch das Vermeiden der _escaped_fragment_URLs. Statt dieser würde Google zukünftig die #!-URLs crawlen, rendern und indexieren.

 

Titelbild © AKS - Fotolia.com

 


Christian Kunz

Von Christian Kunz

SEO-Experte.
Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier


Anzeige

SEO-Vergleich


Verwandte Beiträge

Die Google Search Console meldet für eine Seite ein 'noindex', aber das lässt sich einfach nicht nachvollziehen? Das kann am Rendering der Seite per JavaScript liegen.

Google rät davon ab, wichtige Inhalte per CSS mit ::before und ::after in eine Webseite einzufügen. Es könnte nämlich sein, dass Google die nicht indexiert.

Wenn Google auf Webseiten mit schlechten Inhalten stößt, werden Webseiten und dort enthaltenes JavaScript gar nicht erst gerendert. Das kann dann problematisch sein, wenn per JavaScript relevante...

 

 

Anzeige

rnkeffect

Premium-Partner (Anzeige)


Anzeigen sedo

SEO Agentur aus Darmstadt

SEO-Vergleich

Online Solutions Group


Onsite-Optimierung

Onsite-Optimierung

 

Sprecher auf

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO im Ohr, der Podcast von SEO Südwest: aktuell Folge

SEO-Beratung

Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.

Social Networks und RSS-Feed

Auszeichnungen

seo19 sieger sichtbarkeit 2020 200x200px