Google: So könnt Ihr das Indexieren von Staging-Versionen Eurer Websites vermeiden
Die beste Möglichkeit, das Indexieren von Test- und Staging-Versionen einer Website zu vermeiden, ist laut Google das Einrichten einer serverseitigen Zugangskontrolle. Zwar sind auch die robots.txt und 'noindex' mögliche Alternativen, durch bergen diese Risiken.
SEO-Beratung: Wir sind Ihre Experten
Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.
Google bestätigt: Die Manipulation des Datums von Artikeln kann sich positiv auswirken
Das Manipulieren des Datums von Artikeln, um damit eine bessere Platzierung in der Suche zu erzielen, funktioniert laut Google noch immer, zumindest in manchen Fällen.
Google: Indexierungsprobleme mit Top Stories sind komplett behoben
Google hat mitgeteilt, dass die jüngsten Indexierungsprobleme im Zusammenhang mit Top Stories bzw. Schlagzeilen inzwischen komplett behoben sind.
Google meldet Indexierungsprobleme für Top Stories
Google hat darüber informiert, dass es zu Indexierungsproblemen mit Top Stories gekommen ist. Diese sollen inzwischen wieder behoben sein.
Google hat derzeit offenbar Probleme mit der Anzahl von Suchergebnissen
Google zeigt momentan offenbar für bestimmte Suchanfragen nur wenige Ergebnisse an. Betroffen sind auch Site-Abfragen.
Bing bringt neues URL Inspection Tool
Bing hat seine Webmaster Tools um ein URL Inspection Tool erweitert. Damit lassen sich URLs zum Beispiel auf Probleme mit dem Crawlen, der Indexierung und allgemeine SEO-Probleme analysieren.
Google verwendet BERT jetzt auch zum Abgleich von News und Faktenchecks
Google hat einige Änderungen vorgestellt, welche die Qualität der Suchergebnisse verbessern sollen. Dazu gehört auch die Anwendung von BERT für den Abgleich zwischen News und Faktenchecks.
Google: 'Keyword-Kannibalisierung existiert'
Keyword-Kannibalisierung gibt es laut Google, wobei unterschiedliche Szenarien unterschieden werden müssen.
Google: Per 'nosnippet' lassen sich Seiten nicht aus den Sitelinks ausschließen
Es ist nicht möglich, Seiten per 'nosnippet' von den Sitelinks in den Google-Ergebnissen auszuschließen.
Google: keine negativer Effekt auf die Rankings, wenn eine Seite vorher einen 404 gesendet hat
Seiten, die zuvor einen 404 gesendet haben und dann wieder indexiert werden, werden deshalb von Google nicht schlechter gewertet. Allerdings kann es sein, dass es eine Weile dauert, bis Google eine ehemalige 404-Seite wieder crawlt.
Weitere Beiträge
- Crawlen: Google erklärt das 2-MB-Limit und das 15-MB-Limit
- Reddit Pro steht jetzt allen Publishern offen
- SEO: John Müller rät zu Konzentration auf wenige Maßnahmen
- ChatGPT Location Sharing: Teilen des Standorts ermöglicht jetzt präzisere Ergebnisse
- Google rollt das March 2026 Core Update aus
- Automatisierter KI-Traffic ist im Jahr 2025 achtmal so stark gewachsen wie menschlicher Traffic
- Google Gemini zeigt Links zu Quellen ohne Funktion
- Google Spam Update vom März ist nach nur einem Tag beendet
- Google rollt das March 2026 Spam Update aus
- 'Google-Agent': neuer User Agent von Google für automatische Aktionen auf Webseiten
- Bing Webmaster Tools zeigen jetzt Grounding Queries auf Seitenebene
- Google crawlt 404 URLs länger: Zeichen dafür, dass Google mehr Inhalte von der Website will
- Google ändert jetzt Titles in der Suche per KI. Verfälschungen möglich
- Query Fanouts der KI-Modelle unterscheiden sich deutlich
- EEAT ist auch für LLMs und die KI-Suche wichtig - das zeigt ein aktuelles Beispiel
- Google Search Console zeigt Links aus ChatGPT
- Yahoo CEO Jim Lanzone kritisiert Googles KI-Suche: kein Traffic für Websites
- Google GIST Algorithmus: Warum Unique Content jetzt noch wichtiger ist
- GPT-5.4 nutzt bei Query Fan-Out viele Site-Abfragen - Bevorzugung einzelner Websites
- Ahrefs jetzt mit API-Zugriff für alle Pakete: Daten können für eigene SEO-Tools genutzt werden