Google führt Bildunterschriften in der Bildersuche ein
Eine weitere Änderung in der Google Bildersuche steht bevor: Das Unternehmen hat angekündigt, dort zukünftig Bildunterschriften anzuzeigen. Damit soll die Bildersuche informativer werden.
SEO-Beratung: Wir sind Ihre Experten
Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.
SEO-Recap vom 13.3.: Google bestätigt großes Update
Google hat bestätigt, dass es in der vergangenen Woche ein umfassendes Update des Core-Algorithmus gegeben hat.
Google erklärt den Unterschied zwischen breiten Updates und fokussierten Updates
Google führt pro Jahr viele Updates durch. Manche davon betreffen nur Details, andere beeinflussen die Suchergebnisse auf breiter Ebene. Was unter breiten und fokussierten Updates zu verstehen ist und wie häufig diese stattfinden, hat Google jetzt erklärt.
Google: iFrame im Head des HTML kann Crawlen der Meta-Daten stören
Das Setzen eines iFrames im Head des HTML-Codes kann laut Google dazu führen, dass vorhandene Meta-Daten nicht geparst werden.
Google: Sitemaps sollten automatisch aktualisiert werden
Sitemaps sind nur dann hilfreich, wenn sie den neuesten Stand einer Webseite abbilden. Wenn die Zeitabstände zwischen den Aktualisierungen zu groß sind, geht der Nutzen der Sitemap zum Teil verloren.
Google bestätigt offiziell Update des Core-Algorithmus
Die Gerüchte wurden jetzt offiziell von Google bestätigt: Es hat tatsächlich ein Update des Core-Algorithmus gegeben. Das hat Google per Twitter mitgeteilt.
SEO-Recap vom 12.3.: neues Google-Update gesichtet
Am Wochenende hat es vermutlich ein größeres Google-Update gegeben. Die üblichen Signale deuten darauf hin.
Am Wochenende gab es sehr wahrscheinlich ein Google-Update
Etwa drei Wochen nach den letzten größeren Veränderungen auf den Google-SERPs deutet nun vieles auf ein weiteres Update hin. Die stärksten Schwankungen sind am Wochenende aufgetreten.
Google: Blockieren per robots.txt verhindert das Erkennen von Duplicate Content
Das Sperren von URLs per robots.txt verhindert, dass Google Duplicate Content erkennen kann. Stattdessen sollte man zum Verhindern von Duplikaten in der Suche auf Canonical-Links setzen.
Twitter will Verifizierung von Nutzerkonten für alle anbieten
Twitter hat angekündigt, die bisher noch stark limitierte Verifizierung von Accounts auf alle Nutzer auszuweiten. Zusätzlich sollen der Verifikationsprozess angepasst und die Transparenz erhöht werden.
Weitere Beiträge
- Google Search Console: Logging-Probleme können falsche Daten zu Impressionen verursachen
- Inhalte aktuell halten und veraltete Inhalte löschen: wichtig für die Suche und KI, sagt Fabrice Canel von Bing
- AI Brand Authority Index: neue Datenbank für Sichtbarkeit von Marken in Google Gemini
- Crawlen: Google erklärt das 2-MB-Limit und das 15-MB-Limit
- Reddit Pro steht jetzt allen Publishern offen
- SEO: John Müller rät zu Konzentration auf wenige Maßnahmen
- ChatGPT Location Sharing: Teilen des Standorts ermöglicht jetzt präzisere Ergebnisse
- Google rollt das March 2026 Core Update aus
- Automatisierter KI-Traffic ist im Jahr 2025 achtmal so stark gewachsen wie menschlicher Traffic
- Google Gemini zeigt Links zu Quellen ohne Funktion
- Google Spam Update vom März ist nach nur einem Tag beendet
- Google rollt das March 2026 Spam Update aus
- 'Google-Agent': neuer User Agent von Google für automatische Aktionen auf Webseiten
- Bing Webmaster Tools zeigen jetzt Grounding Queries auf Seitenebene
- Google crawlt 404 URLs länger: Zeichen dafür, dass Google mehr Inhalte von der Website will
- Google ändert jetzt Titles in der Suche per KI. Verfälschungen möglich
- Query Fanouts der KI-Modelle unterscheiden sich deutlich
- EEAT ist auch für LLMs und die KI-Suche wichtig - das zeigt ein aktuelles Beispiel
- Google Search Console zeigt Links aus ChatGPT
- Yahoo CEO Jim Lanzone kritisiert Googles KI-Suche: kein Traffic für Websites