Fallstudie: Das Entfernen von SEO-Texten kann zu Trafficverlusten führen
Das Entfernen von Texten, die lediglich aus SEO-Gründen erstellt und hinzugefügt wurden, kann sich laut einer Fallstudie negativ auf den organischen Suche-Traffic auswirken. Vor dem Entfernen solcher Texte sollten daher Tests durchgeführt werden.
SEO-Beratung: Wir sind Ihre Experten
Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.
Google: Rich Snippet-Tool zeigt jetzt auch Vorschau auf Rezepte in Google Home
Das Tool zum Testen von Rich Snippets zeigt jetzt auch eine Vorschau für die Darstellung von Rezepten in Google Home.
Google Search Console zeigt jetzt Daten für Produkt-Snippets
Die Google Search Console zeigt jetzt auch Leistungsdaten für Rich Snippets, die für Produkte ausgespielt werden. Das ist vor allem für Betreiber von Online-Shops eine gute Nachricht.
Google Search Console: Datenprobleme mit der Bildersuche zwischen 14. und 19. November
Bestimmte Daten zur Bildersuche innerhalb der Google Search Console für den Zeitraum zwischen dem 14. und dem 19. November sind laut Google fehlerhaft.
Spam-Links: Sperren per robots.txt genügt nicht
Das Sperren von Seiten mit Spam-Links per robots.txt bewirkt nicht, dass Google die vorhandenen Links ignoriert.
'URL Cloaking': Darf man Google andere URLs zeigen als den Nutzern?
Die URLs einer Website sollten so einfach wie möglich aufgebaut sein. Es kann aber Fälle geben, in denen komplexe URLs benötigt werden, zum Beispiel für das Tracking. Ist es in einem solchen Fall legitim, Google andere URLs anzuzeigen als den Nutzern?
Google: mögliches Update rund um den 14.11.
Die Serie der Google-Updates reißt nicht ab. Erneut gibt es Anzeichen für größere Änderungen der Rankings, die rund um den 14.11. begonnen haben.
Google: keine Penalty wegen veralteten HTMLs
Das Verwenden veralteten HTMLs auf einer Website wird von Google nicht negativ bewertet. Das ist eine gute Nachricht für viele Webmaster.
Google: Mixed Content kann zukünftig das Crawlen durch Googlebot behindern
Google hat darauf hingewiesen, dass Mixed Content auf Webseiten zukünftig zu Problemen beim Abruf der Seiten durch Google und auch durch die Nutzer führen kann. Google Chrome wird ab Version 79 Mixed Content blockieren.
Google: Auch Seiten, die per robots.txt blockiert sind, können PageRank empfangen
Auch Seiten, die Google aufgrund der robots.txt nicht crawlen kann, sind in der Lage, PageRank zu empfangen. In umgekehrter Richtung funktioniert das allerdings nicht.
Weitere Beiträge
- Neue Untersuchung zeigt 5 SEO-Erfolgsfaktoren: Ohne Fleiß kein Preis
- SEMrush Sensor repariert: scheinbare Dauerschwankungen auf Google SERPs vorbei
- Claude Mythos Preview ist jetzt in Google Vertex AI verfügbar
- Google AI Overviews: etwa 91 Prozent der Antworten sind richtig
- Google Core Update vom März ist abgeschlossen
- ChatGPT: GPT-5.4 zeigt deutlich weniger Links als GPT-5.3
- KI im Journalismus: Fortune steigert News-Produktion durch, Wall Street Journal beeindruckt
- 75 Prozent der Websites, die KI-Bots blockieren, tauchen dennoch in KI-Zitaten auf
- Meinung: Voll automatisierter KI-Content wird zur Normalität
- Google Search Console: Logging-Probleme können falsche Daten zu Impressionen verursachen
- Inhalte aktuell halten und veraltete Inhalte löschen: wichtig für die Suche und KI, sagt Fabrice Canel von Bing
- AI Brand Authority Index: neue Datenbank für Sichtbarkeit von Marken in Google Gemini
- Crawlen: Google erklärt das 2-MB-Limit und das 15-MB-Limit
- Reddit Pro steht jetzt allen Publishern offen
- SEO: John Müller rät zu Konzentration auf wenige Maßnahmen
- ChatGPT Location Sharing: Teilen des Standorts ermöglicht jetzt präzisere Ergebnisse
- Google rollt das March 2026 Core Update aus
- Automatisierter KI-Traffic ist im Jahr 2025 achtmal so stark gewachsen wie menschlicher Traffic
- Google Gemini zeigt Links zu Quellen ohne Funktion
- Google Spam Update vom März ist nach nur einem Tag beendet