Wenn eine Webseite auf eine neue Domain umgezogen wird, kommt es laut Google fast immer zu Schwankungen. Es gibt auch keine Garantie dafür, dass die Leistung unter der neuen Domain derjenigen unter der alten Domain entspricht.
Um zu verstehen, wie eine Webseite für die Darstellung in den Google-Ergebnissen optimiert werden sollte, ist eines besonders hilfreich: sich in die Rolle der eigenen Nutzer zu versetzen. Daher empfiehlt Google: 'Sucht nach Eurer Seite wie Eure Nutzer!'
Auf internationalen Webseiten muss darauf geachtet werden, dass hreflangs, die auf andere Sprach- und Landesversionen zeigen, nur auf Canonical-URLs verweisen. Ansonsten kann es Probleme geben.
Google kann beim Crawlen von Webseiten keine Custom CSS-Properties erkennen. Der Grund dafür liegt in der Browser-Engine, die Google zum Rendern der Seiten verwendet.
Damit Google den auf einer Webseite vorhandenen Signalen vertrauen kann, müssen diese möglichst einheitlich sein. Daran hat das Unternehmen gerade wieder erinnert.
Wenn Google bestimmte URLs einer Webseite nicht indexiert, hilft es auch nicht, die betreffenden URLs auf mehrere Sitemaps zu verteilen oder sie sogar in mehreren Sitemaps einzureichen.
Der Googlebot folgt beim Crawlen nicht automatisch der Verzeichnisstruktur in URLs, sondern ist zum Abruf der Seiten auf Links angewiesen. Unterstützend können XML-Sitemaps wirken.
Das Verwenden von Lazy Loading für Bilder auf Webseiten kann dazu führen, dass Google bestimmte Bilder nicht indexiert. Dieses Problem besteht weiterhin - Google will dazu demnächst konkrete Empfehlungen veröffentlichen.
SEO ist kein Selbstzweck, sondern ergibt sich im Idealfall aus einer nutzerfreundlichen Webseitengestaltung. Das hat kürzlich Pierre Far von Google bestätigt.
Google bewertet, wo auf einer Webseite bestimmte Inhalte angezeigt werden. Dabei kommt es nicht auf die Position im HTML-Code an, sondern darauf, wo die Inhalte letztendlich auf dem Bildschirm zu sehen sind.
In der vergangenen Woche ging der in Chrome integrierte Ad-Blocker live. Anzeigen, die nicht den "Better Ads Standards" genügen, werden seither blockiert, so wie auch alle anderen Anzeigen auf solchen Seiten. Nutzt Google diese Standards auch für das organische Ranking der Suchergebnisse?
Yoast hat mit der Version 6.3 die Option zum Setzen von Folgeseiten in Archiven auf "noindex" abgeschafft. Das ist eine sinnvolle Maßnahme, die gängigen Best Practices in der SEO entspricht.
Sogenannte Boilerplate-Texte, die auf vielen Seiten erscheinen, sind laut Google kein Problem - auch dann nicht, wenn die Texte im Hauptbereich der Seite stehen.
Statt sich nur auf die Rankings zu konzentrieren, sollten sich Webmaster lieber darum kümmern, ihre Seite zu verbessern. So lautet eine Empfehlung Googles, die jetzt wiederholt wurde. Und in der Tat: Es steckt eine sinnvolle Botschaft dahinter.
Für unverschlüsselte Webseiten ohne HTTPS wird die Luft immer dünner: Googles Chrome-Browser wird ab Juli solche Seiten generell als unsicher kennzeichnen.