Momentan ist die Ladezeit mobiler Webseiten noch kein Rankingfaktor bei Google. Das könnte sich jedoch in nächster Zeit ändern. Einen direkten Zusammenhang mit Googles neuem Index scheint es dabei nicht zu geben.
Das Verwenden protokoll-relativer URLs für Canonical-Links ist aus Sicht Googles möglich. Dennoch ist davon abzuraten, denn es drohen Sicherheits- und Performanceprobleme.
Das JavaScript-Datenvolumen auf Webseiten ist in den letzten Jahres drastisch angestiegen. Damit verbunden war eine Verschiebung des Flaschenhalses: Nicht mehr die Bandbreite stellt heute die kritische Ressource im Netz dar, sondern die CPU-Leistung der Geräte.
Das Verwenden einer veralteten TLS-Version auf Webseiten, die per HTTPS ausgespielt werden, wirkt sich nicht negativ auf die Rankings aus. Ein Sicherheitsproblem besteht dennoch.
Einen wichtigen Hinweis gab es heute von Google zum Einsatz strukturierter Daten für Firmenlogos: SVGs werden nicht unterstützt. Das kann sich auf die Darstellung in den Suchergebnissen Panel auswirken.
Die Ladezeit einer Seite kann sich auf die Nutzbarkeit einer Webseite und auf die Google-Rankings auswirken. Doch wie misst man die Ladezeit bzw. den Page Speed zuverlässig? Kann die Time To First Byte (TTFB) dabei hilfreich sein?
Bei der Migration einer Webseite auf HTTPS müssen auch die Einstellungen zur Behandlung von URL-Parametern umgezogen werden. Ansonsten kann es sein, dass ungewünschte URLs im Index landen.
Ist der Betreiber einer Webseite dafür verantworlich, wenn seine Seite aufgrund langsamer Server von Drittanbietern eine schlechte Performance aufweist? Laut Google ist das ohne Zweifel so.
Google gibt laut einem Tweet keinen Richtwert für die Antwortzeit eines Servers vor - im Gegensatz zur Dokumentation auf PageSpeed Insights, in der es durchaus eine Empfehlung dazu gibt. Diese Zeitspanne einen großen Einfluss auf die gesamte Ladezeit einer Webseite und sollte daher regelmäßig kontrolliert werden.
Webseiten, die zusätzliche Inhalte per JavaScript nachladen, werden möglicherweise nicht vollständig vom Googlebot gecrawlt, denn dieser berücksichtigt nur den initialen Zustand der Seite.
Google hat die Hinweise zu den Rendering-Fähigkeiten des Googlebots aktualisiert. Nicht unterstützt werden zum Beispiel die Bestätigung erforderlicher Nutzerfreigaben und das WebSocket-Protokoll.
Google liefert einen detaillierten Einblick in den Zusammenhang zwischen der Ladezeit von Webseiten und der Absprungrate. Schon ein leichter Anstieg der Ladezeit führt zu einer deutlichen Zunahme der Absprünge.
Wie sehr sich die Ladezeit auf die Anzahl der von Google pro Tag gecrawlten Seiten auswirken kann, zeigt ein aktuelles Beispiel in beeindruckender Weise.
Google hat noch einmal davon abgeraten, URL-Fragmente zu verwenden. Besser ist es, lesbare URLs zu nutzen, um die Crawlbarkeit der Inhalte zu gewährleisten.
Der Anteil von HTTPS-Seiten an den Google-Ergebnissen liegt inzwischen bei fast 50 Prozent und hat sich damit innerhalb eines Jahres nahezu verdoppelt.
In einem aktuellen Beitrag erläutert Google jetzt ausführlich, was unter dem Crawl-Budget zu verstehen ist und nennt die Faktoren, die das Crawl-Budget beeinflussen. Die wichtigste Erkenntnis lautet: Kleine und mittelgroße Webseiten müssen sich normalerweise keine Sorgen machen, dass das Crawl-Budget nicht ausreichen könnte.