Studie: Kunden, die mehr für SEO-Dienstleistungen bezahlen, sind zufriedener
Eine aktuelle Studie zeigt einen Zusammenhang zwischen dem monatlichen SEO-Budget und der Zufriedenheit mit SEO-Anbietern.
SEO-Beratung: Wir sind Ihre Experten
Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.
Trotz Canonical: Google crawlt auch die anderen URL-Varianten
Google crawlt auch dann die anderen URL-Varianten einer Seite, wenn es einen Canonical-Link auf eine URL gibt.
Google: Stock Photos schaden den Web-Rankings nicht
Stock Photos sind aus Sicht Googles kein Problem für die Rankings in der Websuche. Anders sieht es jedoch in der Bildersuche aus.
SEO-Recap vom 2.7.: Google wird ab dem 1. September kein 'noindex' in robots.txt unterstützen
Auch wenn Google 'noindex' in der robots.txt noch nie offiziell unterstützt hat: Am 1. September ist Schluss damit.
Google: 'noindex' und einige andere Regeln in robots.txt werden ab 1. September nicht mehr unterstützt
Google wird den Support für einige Regeln in der robots.txt zum 1. September einstellen. Dazu gehört auch die Verwendung von 'noindex'.
Online-Shops: Warenkorb-Seiten müssen für Google nicht crawlbar sein
Google benötigt keinen Zugriff auf Seiten in Online-Shops, die nach dem Hinzufügen von Produkten zum Warenkorb angezeigt werden.
SEO-Recap vom 1.7.: Valides HTML und CSS sind kein Rankingfaktor
Fehler in HTML und CSS führen normalerweise nicht zu einer Abwertung in den Google-Ergebnissen.
Google will Robot Exclusion Protocol zum Internet-Standard machen - und stellt robots.txt-Parser Open Source
Google setzt sich dafür ein, dass das Robot Exclusion Protocol (REP) zum Internet-Standard wird. Damit soll sichergestellt werden, dass die Direktiven in den robots.txt-Dateien von den Crawlern lesbar sind und beachtet werden können. Gleichzeitig hat Google seinen Parser für robots.txt-Dateien als Open Source zur Verfügung gestellt.
Google: 500er-Fehler für robots.txt führt zum Stopp des Crawlens
Vorsicht, wenn der Aufruf der robots.txt-Datei zu einem 500er-Fehler führt: Dann stoppt Google das Crawlen der Website. Auf lange Sicht drohen sogar gravierendere Folgen.
Google: Die Validität von HTML und CSS ist kein Rankingfaktor
Für die Rankings in Google spielt die Validität des HTML und des CSS keine Rolle. Ansonsten müsste Google viele Seiten schlechter bewerten.
Weitere Beiträge
- KI-Tracking: Bing weist den Weg
- KI-Shopping: Google rollt Checkout per UCP im AI Mode und der Gemini App aus
- Bing Webmaster Tools jetzt separaten Daten zur KI-Leistung
- ChatGPT verwendet laut Bericht Produkte aus Google Shopping
- Claude Opus 4.6: der neue Standard für Agentic Search
- Werbung auf ChatGPT: Es geht los
- KI: Wie wichtig sind strukturierte Daten für LLMs?
- Reddit treibt KI-Suche voran
- Google Bug sorgt aktuell für fehlende Links in den AI Overviews
- Google rollt das February 2026 Discover Core Update aus
- Microsoft startet Content Market Place (PCM): Publisher können Inhalte für KI lizenzieren
- ChatGPT: Marktanteil in den USA von 69,1 auf 45,3 Prozent gesunken
- Ranking-Verluste: Google geht jetzt möglicherweise gegen eigennützige Listicles vor
- Google: Die Sichtbarkeit mancher Unternehmensblogs mit Erklär-Inhalten ist zuletzt gesunken
- ChatGPT bringt Top Stories und Knowledge Panel: neue Möglichkeiten für Sichtbarkeit und Klicks
- Cloaking-Fall zeigt: ChatGPT nutzt wahrscheinlich Google Suchergebnisse
- Google prüft Möglichkeit, KI-Inhalte auf Webseiten im HTML zu kennzeichnen
- Empfehlungen in KI-Tools von Marken und Produkten sind laut Studie fast zufällig
- Google stellt Möglichkeit zum separaten Opt-Out aus AI Overviews und AI Mode in Aussicht
- Google AI Overviews leiten jetzt bei Folgefragen direkt in den AI Mode - weniger Traffic für Websites