Google: Nicht erreichbare robots.txt wird wie blockiertes Crawlen behandelt
Eine nicht erreichbare robots.txt kann dazu führen, dass Google eine Website nicht crawlt, weil die Ressourcen als blockiert gelten.
SEO-Beratung: Wir sind Ihre Experten
Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.
Google: Das Ranking nur für ganz bestimmte Suchanfragen lässt sich nicht verhindern
Wenn eine Webseite in den Suchergebnissen von Google erscheint, kann man nicht verhindern, dass sie auch für unerwünschte Suchanfragen angezeigt wird.
Google Title Update: alles, was Ihr dazu wissen müsst
Das Google Title Update wirkt sich auf die Darstellung von Seitentiteln in der Suche aus. Dabei stellen sich viele Fragen, zum Beispiel, ob das Title Update Auswirkungen auf die Rankings hat und ob man jetzt Änderungen an den Titeln einer Website durchführen sollte.
Google Lighthouse gibt jetzt Empfehlungen zur Verwendung des AVIF-Bildformats
Google Lighthouse berücksichtigt bei den Empfehlungen zur Optimierung von Websites neben weiteren modernen Bildformaten jetzt auch AVIF, mit dem sich besonders große Einsparungen bei der Dateigröße erzielen lassen.
Google: 'Relative Wichtigkeit auf Website zeigen, damit Inhalte schneller gecrawlt werden'
Wer sich wundert, warum Google neue Inhalte auf seiner Website erst spät crawlt und indexiert, sollte einmal prüfen, wo und in welcher Weise die Inhalte auf der Website erscheinen.
Google-Warnung wegen ungewöhnlicher Downloads: besser auf personalisierte Downloads verzichten
Um Warnungen wegen ungewöhnlicher Downloads zu vermeiden, sollte man darauf achten, Dateien nur im Original und unverändert zum Download bereitzustellen.
Google: Websites in einem Search Console-Konto werden separat bewertet
Google bewertet Websites, die in einem gemeinsamen Search Account-Konto verifiziert sind, jeweils eigenständig. Und das ist auch sinnvoll.
Mögliches Google-Update am 4. September
Es gibt Anzeichen für ein Google-Update an 4. September. Dafür sprechen sowohl die Daten verschiedener Rankig-Tracker als auch Beobachtungen von Webmasterinnen und Webmastern. Möglicherweise hat Google Änderungen an der Bewertung von Website-weiten Qualitätskriterien vorgenommen.
Google: Republishing ist eine schlechte Idee, wenn es um die Rankings geht
Republishing, also das erneute Veröffentlichen von Beiträgen auch auf anderen Websites und Kanälen, kann den Rankings schaden. Um ein breiteres Publikum zu erreichen, kann Republishing dagegen ein sinnvolles Mittel sein.
Google Search Console: Impressionen aus Karussells zählen nur im Viewport
Die Google Search Console zählt Impressionen von Suchergebnissen in Karussells nur dann, wenn sich diese im sichtbaren Viewport befinden.
Weitere Beiträge
- SEO: John Müller rät zu Konzentration auf wenige Maßnahmen
- ChatGPT Location Sharing: Teilen des Standorts ermöglicht jetzt präzisere Ergebnisse
- Google rollt das March 2026 Core Update aus
- Automatisierter KI-Traffic ist im Jahr 2025 achtmal so stark gewachsen wie menschlicher Traffic
- Google Gemini zeigt Links zu Quellen ohne Funktion
- Google Spam Update vom März ist nach nur einem Tag beendet
- Google rollt das March 2026 Spam Update aus
- 'Google-Agent': neuer User Agent von Google für automatische Aktionen auf Webseiten
- Bing Webmaster Tools zeigen jetzt Grounding Queries auf Seitenebene
- Google crawlt 404 URLs länger: Zeichen dafür, dass Google mehr Inhalte von der Website will
- Google ändert jetzt Titles in der Suche per KI. Verfälschungen möglich
- Query Fanouts der KI-Modelle unterscheiden sich deutlich
- EEAT ist auch für LLMs und die KI-Suche wichtig - das zeigt ein aktuelles Beispiel
- Google Search Console zeigt Links aus ChatGPT
- Yahoo CEO Jim Lanzone kritisiert Googles KI-Suche: kein Traffic für Websites
- Google GIST Algorithmus: Warum Unique Content jetzt noch wichtiger ist
- GPT-5.4 nutzt bei Query Fan-Out viele Site-Abfragen - Bevorzugung einzelner Websites
- Ahrefs jetzt mit API-Zugriff für alle Pakete: Daten können für eigene SEO-Tools genutzt werden
- Den 'Googlebot' gibt es nicht. Dahinter steckt eine riesige Infrastruktur
- ChatGPT zitiert gelöschte Wikipedia-Artikel und bietet damit Einfallstor für Spam