SEO-Beratung anfragen
Die Zahl der von Google in den Ergebnissen angezeigten Mini-Sitelinks ist seit Anfang November deutlich zurückgegangen. Nicht betroffen scheinen die normalen Sitelinks zu sein, die bei markenbezogenen oder navigatorischen Suchen erscheinen.
Es spielt für das Ranking in Google keine Rolle, für welchen Zeitraum eine Domain registriert und vorausbezahlt ist. Der wichtigste Grund dafür ist, dass nicht alle Domain-Registrare diese Informationen zur Verfügung stellen.
Versteckte Inhalte hinter Tabs oder Akkordeons werden zukünftig mit der Umstellung auf den mobilen Google-Index voll gewertet werden. Derzeit erhalten diese Inhalte noch keine vollwertige Gewichtung.
Das Tool zum Abwerten von Sitelinks war schon mehrere Monate vor dem offiziellen Aus ohne Funktion. Das hat Google jetzt bestätigt.
Der Anteil der per HTTPS ausgelieferten Seiten an den Google Top-Ergebnissen liegt inzwischen bei mehr als 40 Prozent.
Wenn es um Strukturierte Daten geht, bevorzugt Google bereits heute das Format JSON-LD. Zukünftig könnte es sogar sein, dass bestimmte Datentypen nur noch in diesem Format unterstützt werden.
301-Redirects sollten aus Sicht von Google möglichst lange bestehen bleiben - für mindestens ein Jahr. Falls nichts dagegen spricht, sollte man die permanenten Weiterleitungen sogar niemals entfernen.
Ein valides Zertifikat? Eine ausreichende Verschlüsselungsrate? All das scheint zumindest für das Ranking in Google nicht von Bedeutung sein, denn der Rankingbonbus für HTTPS wird trotzdem gewährt. Wie jetzt bekannt wurde, achtet Google bei der Prüfung von HTTPS-Seiten nur auf die ersten fünf Zeichen der URL.
Für AMP-Inhalte muss keine eigenständige XML-Sitemap vorgehalten werden. Es genügen die Links im HTML-Quellcode.
Google schafft die Funktion zum Abwerten von Sitelinks ab, die es bisher in der Search Console gab. Zukünftig muss man die Darstellung der Sitelinks durch Onsite-Faktoren steuern.
Was passiert, wenn auf einer Webseite sowohl eine "noindex"- als auch ein "index"-Direktive vorhanden ist? In diesem Fall sticht die "noindex"-Direktive, wie ein Google-Mitarbeiter gerade bestätigt hat.
Das Weiterleiten nicht mehr bestehender URLs per 301-Redirect auf die Homepage bringt nichts: Google betrachtet diese Weiterleitungen als Soft-404er.
Es ist zu empfehlen, die Crawl-Frequenz des Googlebots im Auge zu behalten, denn seltene Besuche und eine geringe Zahl abgerufener Seiten sind ein Signal dafür, dass Google die Qualität der Webseite als gering einstuft.
JavaScript im Head-Bereich des HTML-Codes kann dazu führen, dass Google die dort gesetzten Hreflang-Tags nicht erkennt. In einem Fallbeispiel wird gezeigt, was man dagegen tun kann.
Google arbeitet an neuen Richtlinien für die Crawlbarkeit von JavaScript. Damit könnte die aktuell herrschende Unsicherheit für AJAX-Webseiten beendet werden.
Google hat angekündigt, ab 2017 unverschlüsselte Webseiten, die per HTTP ausgeliefert werden, im Chrome-Browser als unsicher zu markieren. Dies wird zunächst solche Seiten betreffen, die Passwörter oder Kreditkarteninformationen übertragen.
Ein Bug im robots.txt Testing-Tool von Google kann gefährliche Auswirkungen haben, nämlich dann, wenn man auf Basis des Testergebnisses falsche Regeln definiert. Betroffen sind URLs, die prozentkodierte Zeichen enthalten.
Google verwendet drei Faktoren zur Entscheidung, ob für eine Webseite Rich Snippets ausgespielt werden. Um zu prüfen, ob eine Webseite die technischen Voraussetzungen für Rich Snippets erfüllt, kann man sich eines Tricks bedienen.
Googles Structured Data Testing Tool, mit dem strukturierte Daten überprüft werden können, untertützt nun auch Schema Version 3.1.
Google crawlt und indexiert keine Links aus SVG-Grafiken. Das sollte beim Erstellen von Webseiten beachtet werden.
Seite 15 von 19
Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.
Mehr erfahren