Trotz Mobile First: Google crawlt weiterhin auch die Desktop-Version von Webseiten
Auch nach der Umstellung auf Mobile First crawlt Google zumindest ab und zu auch noch die Desktop-Version einer Webseite.
SEO-Beratung: Wir sind Ihre Experten
Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.
SEO-Recap vom 3.7.: Stock Photos schaden den Web-Rankings nicht
Stock Photos sind aus Sicht Googles gut zur Illustration von Webseiten geeignet und schaden nicht den Rankings in der Websuche.
Studie: Kunden, die mehr für SEO-Dienstleistungen bezahlen, sind zufriedener
Eine aktuelle Studie zeigt einen Zusammenhang zwischen dem monatlichen SEO-Budget und der Zufriedenheit mit SEO-Anbietern.
Trotz Canonical: Google crawlt auch die anderen URL-Varianten
Google crawlt auch dann die anderen URL-Varianten einer Seite, wenn es einen Canonical-Link auf eine URL gibt.
Google: Stock Photos schaden den Web-Rankings nicht
Stock Photos sind aus Sicht Googles kein Problem für die Rankings in der Websuche. Anders sieht es jedoch in der Bildersuche aus.
SEO-Recap vom 2.7.: Google wird ab dem 1. September kein 'noindex' in robots.txt unterstützen
Auch wenn Google 'noindex' in der robots.txt noch nie offiziell unterstützt hat: Am 1. September ist Schluss damit.
Google: 'noindex' und einige andere Regeln in robots.txt werden ab 1. September nicht mehr unterstützt
Google wird den Support für einige Regeln in der robots.txt zum 1. September einstellen. Dazu gehört auch die Verwendung von 'noindex'.
Online-Shops: Warenkorb-Seiten müssen für Google nicht crawlbar sein
Google benötigt keinen Zugriff auf Seiten in Online-Shops, die nach dem Hinzufügen von Produkten zum Warenkorb angezeigt werden.
SEO-Recap vom 1.7.: Valides HTML und CSS sind kein Rankingfaktor
Fehler in HTML und CSS führen normalerweise nicht zu einer Abwertung in den Google-Ergebnissen.
Google will Robot Exclusion Protocol zum Internet-Standard machen - und stellt robots.txt-Parser Open Source
Google setzt sich dafür ein, dass das Robot Exclusion Protocol (REP) zum Internet-Standard wird. Damit soll sichergestellt werden, dass die Direktiven in den robots.txt-Dateien von den Crawlern lesbar sind und beachtet werden können. Gleichzeitig hat Google seinen Parser für robots.txt-Dateien als Open Source zur Verfügung gestellt.
Weitere Beiträge
- Google Search Console: Logging-Probleme können falsche Daten zu Impressionen verursachen
- Inhalte aktuell halten und veraltete Inhalte löschen: wichtig für die Suche und KI, sagt Fabrice Canel von Bing
- AI Brand Authority Index: neue Datenbank für Sichtbarkeit von Marken in Google Gemini
- Crawlen: Google erklärt das 2-MB-Limit und das 15-MB-Limit
- Reddit Pro steht jetzt allen Publishern offen
- SEO: John Müller rät zu Konzentration auf wenige Maßnahmen
- ChatGPT Location Sharing: Teilen des Standorts ermöglicht jetzt präzisere Ergebnisse
- Google rollt das March 2026 Core Update aus
- Automatisierter KI-Traffic ist im Jahr 2025 achtmal so stark gewachsen wie menschlicher Traffic
- Google Gemini zeigt Links zu Quellen ohne Funktion
- Google Spam Update vom März ist nach nur einem Tag beendet
- Google rollt das March 2026 Spam Update aus
- 'Google-Agent': neuer User Agent von Google für automatische Aktionen auf Webseiten
- Bing Webmaster Tools zeigen jetzt Grounding Queries auf Seitenebene
- Google crawlt 404 URLs länger: Zeichen dafür, dass Google mehr Inhalte von der Website will
- Google ändert jetzt Titles in der Suche per KI. Verfälschungen möglich
- Query Fanouts der KI-Modelle unterscheiden sich deutlich
- EEAT ist auch für LLMs und die KI-Suche wichtig - das zeigt ein aktuelles Beispiel
- Google Search Console zeigt Links aus ChatGPT
- Yahoo CEO Jim Lanzone kritisiert Googles KI-Suche: kein Traffic für Websites