Google: JavaScript-SEO ist nicht tot
JavaScript-SEO wird laut Google auch weiterhin benötigt und sich in Zukunft weiterentwickeln. Die Komplexität könnte dabei sogar zunehmen.
SEO-Beratung: Wir sind Ihre Experten
Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.
Macht Google Ernst? Berichte über Trafficverluste für Websites mit geleasten Subdomains
Wenige Wochen, nachdem Google Empfehlungen zur Verwendung fremder Subdomains gegeben hatte, scheint es für einige Websites Trafficverluste zu geben.
SEO-Recap vom 28.08.: Affiliate-Links schaden laut Google nicht den Rankings
Das Setzen von Affiliate-Links hat laut Google keine negativen Auswirkungen auf die Rankings.
Google: Invalide strukturierte Daten sind kein Grund für eine manuelle Maßnahme
Google straft Websites nicht wegen invaliden strukturierten Daten ab. Anders sieht es jedoch aus, wenn strukturierte Daten gegen Googles Richtlinien verstoßen.
Google: Affiliate-Links schaden nicht den Rankings
Das Setzen von Affiliate-Links ist für Google in Ordnung und schadet nicht den Rankings. Es komme vor allem auf die Inhalte an, die sich um die Links herum befinden.
SEO-Recap vom 27.8.: Die Struktur vieler Blogs ist laut einer Studie ungünstig für Google
Die Struktur vieler Blogs erschwert laut Studie das Crawlen und Indexieren der Inhalte durch Google.
Google: Kein 'noindex' oder 'disallow' für gesponserte Beiträge nötig
Gesponserte Inhalte dürfen zum Crawlen und zur Indexierung durch Google freigegeben werden. Ein 'noindex' ist nicht notwendig. Allerdings müssen augehende Links auf 'nofollow' gesetzt werden.
Viele Bloginhalte laut Studie schlecht für Google erreichbar
Die Mehrzahl der Bloginhalte im Netz ist laut einer Studie schlecht für Google und andere Suchmaschinen erreichbar, weil zu viele Klicks nötig sind, um zu den Inhalten zu gelangen.
Google: Der Traffic einer Website ist kein Rankingfaktor
Google verwendet den Traffic von Websites nach eigener Aussage nicht als Rankingfaktor. Das passt zu anderen Aussagen zur Rolle des Nutzerverhaltens im Hinblick auf die Suche.
Tool für URL-Parameter kann dazu führen, dass Google Canonical-Links nicht erkennt
Das Tool zur Behandlung von URL-Parametern in der Google Search Console kann bewirken, dass Google bestimmte URLs nicht mehr crawlt und damit auch nicht die dort vorhandenen Canonical-Links nicht findet.
Weitere Beiträge
- Google Search Console: Logging-Probleme können falsche Daten zu Impressionen verursachen
- Inhalte aktuell halten und veraltete Inhalte löschen: wichtig für die Suche und KI, sagt Fabrice Canel von Bing
- AI Brand Authority Index: neue Datenbank für Sichtbarkeit von Marken in Google Gemini
- Crawlen: Google erklärt das 2-MB-Limit und das 15-MB-Limit
- Reddit Pro steht jetzt allen Publishern offen
- SEO: John Müller rät zu Konzentration auf wenige Maßnahmen
- ChatGPT Location Sharing: Teilen des Standorts ermöglicht jetzt präzisere Ergebnisse
- Google rollt das March 2026 Core Update aus
- Automatisierter KI-Traffic ist im Jahr 2025 achtmal so stark gewachsen wie menschlicher Traffic
- Google Gemini zeigt Links zu Quellen ohne Funktion
- Google Spam Update vom März ist nach nur einem Tag beendet
- Google rollt das March 2026 Spam Update aus
- 'Google-Agent': neuer User Agent von Google für automatische Aktionen auf Webseiten
- Bing Webmaster Tools zeigen jetzt Grounding Queries auf Seitenebene
- Google crawlt 404 URLs länger: Zeichen dafür, dass Google mehr Inhalte von der Website will
- Google ändert jetzt Titles in der Suche per KI. Verfälschungen möglich
- Query Fanouts der KI-Modelle unterscheiden sich deutlich
- EEAT ist auch für LLMs und die KI-Suche wichtig - das zeigt ein aktuelles Beispiel
- Google Search Console zeigt Links aus ChatGPT
- Yahoo CEO Jim Lanzone kritisiert Googles KI-Suche: kein Traffic für Websites