Google Search Console zeigt jetzt Daten für Produkt-Snippets
Die Google Search Console zeigt jetzt auch Leistungsdaten für Rich Snippets, die für Produkte ausgespielt werden. Das ist vor allem für Betreiber von Online-Shops eine gute Nachricht.
SEO-Beratung: Wir sind Ihre Experten
Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.
Google Search Console: Datenprobleme mit der Bildersuche zwischen 14. und 19. November
Bestimmte Daten zur Bildersuche innerhalb der Google Search Console für den Zeitraum zwischen dem 14. und dem 19. November sind laut Google fehlerhaft.
Spam-Links: Sperren per robots.txt genügt nicht
Das Sperren von Seiten mit Spam-Links per robots.txt bewirkt nicht, dass Google die vorhandenen Links ignoriert.
'URL Cloaking': Darf man Google andere URLs zeigen als den Nutzern?
Die URLs einer Website sollten so einfach wie möglich aufgebaut sein. Es kann aber Fälle geben, in denen komplexe URLs benötigt werden, zum Beispiel für das Tracking. Ist es in einem solchen Fall legitim, Google andere URLs anzuzeigen als den Nutzern?
Google: mögliches Update rund um den 14.11.
Die Serie der Google-Updates reißt nicht ab. Erneut gibt es Anzeichen für größere Änderungen der Rankings, die rund um den 14.11. begonnen haben.
Google: keine Penalty wegen veralteten HTMLs
Das Verwenden veralteten HTMLs auf einer Website wird von Google nicht negativ bewertet. Das ist eine gute Nachricht für viele Webmaster.
Google: Mixed Content kann zukünftig das Crawlen durch Googlebot behindern
Google hat darauf hingewiesen, dass Mixed Content auf Webseiten zukünftig zu Problemen beim Abruf der Seiten durch Google und auch durch die Nutzer führen kann. Google Chrome wird ab Version 79 Mixed Content blockieren.
Google: Auch Seiten, die per robots.txt blockiert sind, können PageRank empfangen
Auch Seiten, die Google aufgrund der robots.txt nicht crawlen kann, sind in der Lage, PageRank zu empfangen. In umgekehrter Richtung funktioniert das allerdings nicht.
Google: Bei bestimmten Kennzahlen am besten nicht auf Tools von Drittanbietern verlassen
Wichtige Kennzahlen wie zum Beispiel der Traffic einer Website sollten laut Google am besten möglichst direkt gemessen werden. Tools von Drittanbietern könnten dagegen Verfälschungen der Daten mit sich bringen.
Google: mobile Version und Desktop-Version per robots.txt gleich behandeln
Bei Websites mit zwei Versionen für Mobile und Desktop sollte laut Google darauf geachtet werden, diese in der robots.txt gleich zu behandeln.
Weitere Beiträge
- KI-Shopping: Google rollt Checkout per UCP im AI Mode und der Gemini App aus
- Bing Webmaster Tools jetzt separaten Daten zur KI-Leistung
- ChatGPT verwendet laut Bericht Produkte aus Google Shopping
- Claude Opus 4.6: der neue Standard für Agentic Search
- Werbung auf ChatGPT: Es geht los
- KI: Wie wichtig sind strukturierte Daten für LLMs?
- Reddit treibt KI-Suche voran
- Google Bug sorgt aktuell für fehlende Links in den AI Overviews
- Google rollt das February 2026 Discover Core Update aus
- Microsoft startet Content Market Place (PCM): Publisher können Inhalte für KI lizenzieren
- ChatGPT: Marktanteil in den USA von 69,1 auf 45,3 Prozent gesunken
- Ranking-Verluste: Google geht jetzt möglicherweise gegen eigennützige Listicles vor
- Google: Die Sichtbarkeit mancher Unternehmensblogs mit Erklär-Inhalten ist zuletzt gesunken
- ChatGPT bringt Top Stories und Knowledge Panel: neue Möglichkeiten für Sichtbarkeit und Klicks
- Cloaking-Fall zeigt: ChatGPT nutzt wahrscheinlich Google Suchergebnisse
- Google prüft Möglichkeit, KI-Inhalte auf Webseiten im HTML zu kennzeichnen
- Empfehlungen in KI-Tools von Marken und Produkten sind laut Studie fast zufällig
- Google stellt Möglichkeit zum separaten Opt-Out aus AI Overviews und AI Mode in Aussicht
- Google AI Overviews leiten jetzt bei Folgefragen direkt in den AI Mode - weniger Traffic für Websites
- OpenAI: Sam Altman räumt ein, dass bei GPT-5.2 der Schreibstil vernachlässigt wurde