SEO-Recap vom 31.07.: Laut Google gibt es keine 'LSI-Keywords'
Johannes Müller von Google hat die Existenz von sogenannten LSI-Keywords bestritten. Was lässt sich daraus folgern?
SEO-Beratung: Wir sind Ihre Experten
Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.
Google: URLs sollten maximal 1.000 Zeichen lang sein
Google rät dazu, URLs nicht länger als 1.000 werden zu lassen. Ansonsten kann es Probleme beim Crawlen geben.
Google: 'LSI-Keywords' gibt es nicht
Laut Google gibt es so etwas wie LSI-Keywords nicht. Dennoch stellt sich die Frage, ob Latent Semantische Indexierung nicht doch eine von Google eingesetzte Technik ist.
SEO-Recap vom 30.07.: Infotexte können die Bewertung von Kategorieseiten durch Google beeinträchtigen
Infotexte auf Kategorieseiten können dazu führen, dass Google den Zweck der Seiten nicht mehr richtig zuordnen kann.
Zum EuGH-Urteil über Facebook-Plugin: Genügt eine Zwei-Klick-Lösung?
Nach dem Urteil des EuGH über die Verwendung von Facebook-Plugins auf Webseiten stellt sich für Webmaster die Frage, wie sie Social Plugins rechtskontorm verwenden können. Genügt eine Zwei-Klick-Lösung?
Online-Shops: Zusätzlicher Text auf Kategorieseiten kann Google verwirren
Zusätzlicher Text auf Kategorieseiten von Online-Shops und anderen E-Commerce-Websites kann Google verwirren, weil oftmals nicht mehr klar erkennbar ist, ob transaktionsorientierte oder informationsorientierte Suchanfragen abgedeckt werden sollen.
Google: 'noindex' in robots.txt wird nach dem 1. September keinen Schaden anrichten
Wer nach dem 1. September 'noindex'-Regeln in der robots.txt belässt, muss keinen Schaden für die Darstellung in den Google-Ergebnissen fürchten. Einen Nutzen bringt dies allerdings auch nicht.
Google unterscheidet zwischen Links in Hauptinhalten und Boilerplate-Links
Google wertet nicht alle Links auf einer Webseite gleich und unterscheidet zwischen Links im Hauptinhalt und Links im sogenannten Boilerplate wie beispielsweise im Footer.
SEO-Recap vom 29.7.: Google fordert Webmaster zum Entfernen von 'noindex' aus robots.txt auf
Ab dem 1. September wird Google 'noindex' in der robots.txt nicht mehr unterstützen. Daher fordert Google betroffene Webmaster bereits jetzt dazu auf, Alternativen zu suchen.
Google fordert Website-Betreiber zum Entfernen von 'noindex' aus robots.txt auf
Google versendet Benachrichtigungen an Webmaster, die 'noindex' in ihrer robots.txt verwenden. Zu Anfang September wird Google 'noindex' in der robots.txt nicht mehr unterstützen.
Weitere Beiträge
- OpenAI: 'Wir führen keine Live-Tests mit Werbung in ChatGPT durch'
- Google indexiert Konversationen aus dem AI Mode und zeigt sie in der Suche an
- Traffic-Anteil von ChatGPT im November nicht weiter gestiegen
- Google Search Console ermöglicht jetzt Anfragen per KI im Leistungsbericht
- Microsoft Edge Browser zeigt keine Google AI Overviews an
- Google nutzt erstmals LLMS.txt für eigene Webseiten
- Empörung über KI-Rezepte bei Google nimmt zu
- Google testet direkten Übergang von AI Overviews zum AI Mode
- Google Search Console: Daten zur Indexierung nicht aktuell
- Google nutzt jetzt für manche Suchanfragen Gemini 3 Pro
- Google: GEO Detox wird für zusätzliche SEO-Arbeit sorgen
- AI Slop bedroht Rezept-Websites und stellt Gefahr für Nutzer dar
- OpenAI führt Shopping Research in ChatGPT ein
- Analyse: LLMs.txt hat derzeit keinen Einfluss auf die Sichtbarkeit bei KI-Systemen
- Google Web Guide in Deutschland zu sehen: guter Kompromiss zwischen klassischer Suche und KI-Modus
- Google AI Mode erstmals mit Ads
- Google Nano Banana Pro ist da: Infografiken per KI sind jetzt endlich möglich
- Branded Queries: Google Search Console ermöglicht jetzt das Filtern von markenbezogenen Suchanfragen
- Google, Bing und Perplexity geben GEO-Tipps: Kernprinzipien der SEO gelten
- Sistrix zeigt deutlich niedrigere Sichtbarkeit für viele Websites