Wie die Klickrate die Google-Ergebnisse beeinflusst
Die Klickrate ist sehr wahrscheinlich ein wesentlicher Faktor für die Rankings in Google - auch wenn Google selbst das immer wieder abstreitet.
- Erstellt am .
Die Klickrate ist sehr wahrscheinlich ein wesentlicher Faktor für die Rankings in Google - auch wenn Google selbst das immer wieder abstreitet.
Google hat ein neues Tool sowie ein Spiel herausgebracht. Beide zeigen eindrucksvoll, wie gut Google inzwischen natürliche Sprache verstehen kann und welche Änderungen sich zukünftig für die Suche ergeben können.
Für Google kommt es vor allem auf die Relevanz der Inhalte an. Eine hochwertige Webseite mit einem entsprechenden Qualitätsniveau muss aber nicht automatisch auch relevant sein oder relevant bleiben. Viele der Google-Updates beziehen sich daher vor allem auf den Faktor Relevanz.
Der von Google zum Rendern von Webseiten verwendete Chrome-Browser in der Version 41 beherrscht zwar keine CSS-Grids - Google kann solche Seiten aber trotzdem crawlen, wenn die Inhalte erreichbar sind.
Bing bietet mit der Entity Search API jetzt die Möglichkeit, Informationen zu Personen, Orten, Unternehmen und mehr direkt aus der Bing-Datenbank in eigene Webseiten und Applikationen zu integrieren.
Die Funktion 'Abruf wie durch Google' lässt sich nun auch wieder für sogenannte Hashbang-URLs einsetzen. Diese URLs kommen auf AJAX-Seiten zum Einsatz und werden zum Abrufen verschiedener Status der Seiten eingesetzt.
Der Googlebot folgt beim Crawlen nicht automatisch der Verzeichnisstruktur in URLs, sondern ist zum Abruf der Seiten auf Links angewiesen. Unterstützend können XML-Sitemaps wirken.
Eine aktuelle Beobachtung legt den Verdacht nahe, dass die Klickrate und die Suche-Intention doch Einfluss auf die Rankings der Google-Ergebnisse nehmen könnten.
In einem aktuellen Beitrag auf NBC wird Google für die Auswahl seiner Suchergebnisse kritisiert. Diese seien vor allem von wirtschaftlichen Interessen getrieben.
Um zu steuern, welche Seiten von Google und anderen Suchmaschinen gecrawlt und indexiert werden sollen, kann man die robots.txt-Datei und das Meta Robots-Attribut verwenden. Vielen Webmastern ist aber unklar, wann sie welches Instrument einsetzen sollten. Um das zu verstehen, muss vor allem die Funktionsweise der Suchmaschinen bekannt sein.
Bis Google neu indexierte Seiten an allen Standorten anzeigt, kann einige Zeit vergehen. Das ist normal und kein Grund zur Sorge.
Google empfiehlt zum Überprüfen des gerenderten HTML-Codes das eigene Tool zum Testen von Rich Media. Die Funktion "Abruf wie durch Google" weist hier noch Schwächen auf.
Wenn Google Webseiten crawlt und rendert, kommt die Technik des Chrome-Browsers in der Version 41 zum Einsatz. Diese Information kann sehr hilfreich sein, wenn es um das Testen und die Fehlersuche bei der Darstellung durch Google geht. So lässt sich zum Beispiel besser nachvollziehen, warum bestimmte Inhalte nicht oder nicht richtig indexiert werden.
Der Googlebot ist in der Lage, auch sehr große Seiten vollständig zu crawlen. Das zeigt ein aktueller Test. Bezogen auf die Höhe dürfen mobile Seiten noch größer sein als Desktop-Seiten.
Matt Cutts, früherer Google-Mitarbeiter und damals wichtiger Ansprechpartner für Webmaster und SEOs, hat Google wegen der Verlinkung der Suchergebnisse kritisiert. Statt direkt auf die Treffer zu verlinken, finden erst Redirects auf URLs mit diversen Parametern statt.
Google ignoriert beim Crawlen die vom Server geschickten Angaben zum Caching und hält die Dateien länger im Speicher. Es gibt aber eine Möglichkeit, ein erneutes Crawlen zu forcieren.
Rankings neuer Seiten sind meist wenig aussagekräftig, denn sie ändern sich mit der Zeit.
Aus Sicht Googles stellt Duplicate Content ein eher geringes Problem auf Webseiten dar. Zudem seien die Algorithmen sehr gut auf den Umgang mit Duplicate Content ausgerichtet.
Die Bestimmung der Gewichtung interner Links mit Hilfe des PageRanks kann interessante Erkenntnisse liefern. Das hat jetzt auch Johannes Müller von Google bestätigt.
Google wird vermutlich bald keine URLs mehr crawlen, die nach den alten Empfehlungen für AJAX-Seiten erstellt wurden. Betroffen sind dynamische Seiten, die ihre Inhalte zusätzlich in einer statischen Variante bereitstellen.