SEO-News

Bots und CrawlerMit den gestern angekündigten Änderungen von Googles Webmaster Guidelines und zur geforderten Indexierbarkeit von Javascript, CSS und Bildern einer Webseite sollte jedem klar sein, dass Suchmaschinen wie Google inzwischen in der Lage sind, Seiten so abzurufen und zu interpretieren, wie es ein Nutzer auch tun würde.

Die gute Nachricht lautet: Dadurch, dass Google inzwischen Javascript und CSS interpretieren und somit Seiten besser verstehen kann, löst sich der vermeintliche Gegensatz beim Optimieren einer Seite weitgehend auf. Bisher musste man auf die Bedürfnisse der Crawler einerseits und die Ansprüche der Nutzer andererseits denken. Zwar hat Google immer schon postuliert, es gehe nur um die Nutzer, doch war eben das, was ein Crawler beim Aufruf einer Webseite gesehen hat, etwas anderes als das, was letztendlich dem Nutzer im Browser präsentiert wurde.

 

Ohne Javascript und CSS geht es heute fast nicht mehr

Moderne Webseiten sind sehr abhängig von Javascript und CSS. Das dynamische Nachladen von Inhalten, AJAX-Technologie (Asynchrones Javascript und XML) und komplizierte Stylesheets konnten aber bisher von den Crawlern nicht oder nur zum kleinen Teil verstanden werden. Wer wissen wollte, wie sich eine Webseite für die Crawler darstellte, musste entweder einen Textbrowser wie Lynx verwenden, oder auf Tools wie "Fetch as Google" in den Google Webmaster Tools zurückgreifen.

Mit Googles Ankündigung, nun auch Javascript und CSS interpretieren zu können und vor allem mit der Änderung der Webmaster Guidelines zeigt Google nun, wohin die Reise geht: Der Bot wird immer mehr zum normalen Nutzer.

Das bedeutet: Man kann davon ausgehen, dass eine optimale Darstellung im Browser auch den Bots der Suchmaschinen gefällt - solange man darauf achtet, dass diese Bots auch Zugriff auf alle benötigten Ressourcen erhalten. Dabei gibt es einiges zu beachten. Wie Googles Webmaster Trends Analyst Pierre Far mitgeteilt hat, können sich aus gesperrten Javascript- und CSS-Verzeichnissen sogar Rankingnachteile für eine Webseite ergeben.

 

Robots.txt aufräumen - oder am besten gleich löschen

In der Datei "robots.txt" lässt sich bestimmen, welche Ressourcen einer Webseite von den Crawlern aufgerufen und indexiert werden dürfen und welche nicht. Die seriösen Crawler halten sich auch an diese Vorgaben. Bei vielen Webseiten sind bestimmte Verzeichnisse gesperrt - etwa solche, die Administrationszwecken dienen. Oftmals wird aber auch der Zugriff auf Verzeichnisse gesperrt, die Javascript- und CSS-Dateien oder sogar Bilder enthalten. Und genau hier liegt der Fehler, denn damit Google eine Seite interpretieren kann, muss der Bot auch auf die genannten Verzeichnisse zugreifen können.

Wer sich also nicht sicher ist, ob seine robots.txt für die neue Situation geeignet ist, sollte am besten einen Experten um Rat fragen. Optimierte Webseiten kommen in der Regel sogar gänzlich ohne robots.txt aus. Bei ihnen ist die Struktur so angepasst, dass ein optimales Crawling ohne robots.txt möglich ist.

Als weitere Hilfe bietet Google innerhalb der Webmaster Tools eine Funktion an, mit der man sich die Seiten so darstellen lassen kann, wie Google sie sehen würde. Dabei zeigt Google auch an, wenn bestimmte Ressourcen nicht abgerufen werden können.

 

Und tschüs, Cloaking - was machen die Black Hats?

Durch Googles erweiterte Fähigkeiten zur Interpretatioin von Javascript und CSS sind aber auch die Zeiten des Cloakings vorbei, einem Trick, bei dem den Suchmaschinen etwas anderes präsentiert wird als den Nutzern. Black Hat SEOs werden sich also zukünftig anderer Methoden bedienen müssen, um Google und Co. in die Irre zu führen. Dass ihnen dabei die Ideen ausgehen werden, steht jedoch nicht zu erwarten. Im Gegenteil: Der Umstand, dass Google Javascript ausführt, eröffnet gänzlich neue Möglichkeiten für Tricksereien. Man darf gespannt sein.

 

Bild © AKS - Fotolia.com

 


Christian Kunz

Von Christian Kunz+Mehr Infos hier.





Anzeige von Clixado

Artikelveröffentlichungen auf starken Magazinen und Blogs

Wir kooperieren mit unzähligen Verlagen und Bloggern und können daher auf über 4000 Blogs zu fast allen Themengebieten Artikelplätze anbieten:

    - Nachhaltiger Linkaufbau, kein SEO-Netzwerk
    - Hohe Sichtbarkeitswerte, keine expired Domains
    - Einmalzahlung, keine Vertragsbindung

Für jede Artikelveröffentlichung erstellen wir hochwertigen Content mit mindestens 400 Wörtern und publizieren den Artikel mit einem DoFollow-Bachlink zu deiner Seite auf einem Magazin oder Blog deiner Wahl.

Frag uns unverbindlich nach Beispielen





 

 


 

 

 

 

 

SEO-Checkliste

SEO-Checkliste

 

Anzeigen












SEO-Beratung

Suchmaschinenoptimierung und SEO-Beratung für Karlsruhe, Baden und die Pfalz

 

06340/351-943

 

info(at)seo-suedwest.de

SEO-Wissenstest

SEO-Wissenstest

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Sprecher auf

Auszeichnungen

iBusiness Top-100-Liste SEO-Dienstleister

SEO Südwest: Platz 5 bei den SEO-Wahlen 2014 zum besten deutschen SEO-Blog

 

SEO-united.de Tipp 12/15

SEO Südwest English website

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO-Kalender 2018

SEO-Kalender 2018

 

Onsite-Optimierung

Onsite-Optimierung

 

SEO- und Suchmaschinenblogs

SEO-Tipps und SEO-Tricks

IMAGE 'Noindex' oder robots.txt - wann ist welches Instrument das richtige?
Freitag, 09. Februar 2018
Um zu steuern, welche Seiten von Google und anderen Suchmaschinen gecrawlt und indexiert werden... Weiterlesen...
IMAGE Lighthouse: ein Top-Tool für die Performancemessung von Webseiten und PWAs
Montag, 16. Oktober 2017
Lighthouse ist ein Tool, mit dem man die Performance und die Nutzerfreundlichkeit von Progressive... Weiterlesen...
IMAGE Tipp: Reddit für den Aufbau von Backlinks nutzen
Samstag, 17. Januar 2015
Die Social-News-Plattform Reddit erlaubt den Aufbau von guten Backlinks - wenn man sich an... Weiterlesen...

News aus dem Blog

IMAGE Vielen Dank für die Glückwünsche, Google!
Dienstag, 07. November 2017
Google hat mich mit einem persönlichen Geburtstags-Doodle überrascht. Vielen Dank dafür! Weiterlesen...
IMAGE SEO: Können 'Ausverkauft'-Seiten in Online-Shops positive Rankingeffekte haben?
Sonntag, 01. Februar 2015
Wie geht Google eigentlich mit Seiten aus Online-Shops um, die nicht mehr lieferbare Produkte... Weiterlesen...
IMAGE Bloggen in der Sauregurkenzeit: Auffallen leicht gemacht
Dienstag, 02. Januar 2018
Beim Bloggen kommt es auf das richtige Timing an. Wer den richtigen Zeitpunkt für die... Weiterlesen...

 Eine Auswahl zufriedener Kunden

Rebel - Bad Küche Raum
Schöne Haare Karlsruhe
kr3m
feel-perfect.eu - Die Nährstoffexperten border=
Flintec IT GmbH
ESM Academy
Ringladen

Verbinden und Informationen zu SEO Südwest

Impressum und Datenschutz

Social Networks und RSS-Feed

Cookies erleichtern die Bereitstellung unserer Dienste. Mit der Nutzung unserer Dienste erklären Sie sich damit einverstanden, dass wir Cookies verwenden.
Weitere Informationen