John Müller erklärt, warum Site-Suchen unvollständig sein können
Suchabfragen mit dem Site-Operator zeigen oftmals nur einen Teil der von Google indexierten Seiten an. Warum das so ist, erklärt John Müller in einem neuen Video der Serie #AskGooglebot.
SEO-Beratung: Wir sind Ihre Experten
Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.
Google: Zu viele interne Links auf eine Seite normalerweise kein Problem
Laut Google schaden zu viele interne Links nicht, die auf eine Seite zeigen. Allerdings sollte man auf eine natürliche Websitestruktur achten.
Google: Bei neuen Websites nicht alles auf einmal angehen
Google rät dazu, sich bei neuen Websites erst einmal auf wenige Bereiche zu konzentrieren und langsam eine Reputation aufzubauen.
Google bietet Funktion zum Melden von Indexierungsproblemen für alle an
Google hat die Funktion zum Melden von Indexierungsproblemen in der Search Console ausgeweitet. Diese Funktion stand bisher nur in den USA zur Verfügung.
Google zeigt Beispiele: deutlich bessere CTR und mehr Klicks in Discover durch große Bilder
Durch das max-image-preview Meta Tag lassen sich die Klickrate und die Anzahl der Klicks aus Google Discover deutlich erhöhen. Das zeigen zwei Beispiele, über die Google jetzt berichtet hat.
Google: Qualität der Website am besten auf breiter Ebene optimieren
Wenn die Qualität nur eines kleinen Teils einer Website optimiert wird, sind die Effekte auf die Gesamtbewertung durch Google gering. Damit Google die Qualität einer Website insgesamt höher bewertet, müssen entsprechend viele Seiten verbessert werden.
Google: So kann man den Erfolg von Qualitätsverbesserungen schnell kontrollieren
John Müller von Google hat Tipps gegeben, wie man nach der Qualitätsverbesserung einer Website messen kann, ob die Entwicklung in die richtige Richtung geht.
Nicht vergessen: Falsch eingerichtete robots.txt kann die Mobilfreundlichkeit kosten
Wer die falschen Dateien und Verzeichnisse per robots.txt sperrt, riskiert damit, dass Google die Website nicht mehr als mobilfreundlich wertet.
Durch Umwandlung von PDF zu HTML mehr Suche-Traffic erhalten
Wenn Inhalte, die nur als PDF-Dateien vorliegen, in Form von HTML zur Verfügung gestellt werden, kann das zu deutlich mehr Suche-Traffic führen.
Google verzeiht Fehler - sogar, wenn sie gegen die Webmaster-Richtlinien verstoßen
Nur weil eine Website in einem Punkt Fehler macht und vielleicht sogar gegen die Webmaster-Richtlinien verstößt, muss sie nicht aus der Suche ausgeschlossen werden und kann sogar trotzdem gute Rankings erzielen.
Weitere Beiträge
- SEO: John Müller rät zu Konzentration auf wenige Maßnahmen
- ChatGPT Location Sharing: Teilen des Standorts ermöglicht jetzt präzisere Ergebnisse
- Google rollt das March 2026 Core Update aus
- Automatisierter KI-Traffic ist im Jahr 2025 achtmal so stark gewachsen wie menschlicher Traffic
- Google Gemini zeigt Links zu Quellen ohne Funktion
- Google Spam Update vom März ist nach nur einem Tag beendet
- Google rollt das March 2026 Spam Update aus
- 'Google-Agent': neuer User Agent von Google für automatische Aktionen auf Webseiten
- Bing Webmaster Tools zeigen jetzt Grounding Queries auf Seitenebene
- Google crawlt 404 URLs länger: Zeichen dafür, dass Google mehr Inhalte von der Website will
- Google ändert jetzt Titles in der Suche per KI. Verfälschungen möglich
- Query Fanouts der KI-Modelle unterscheiden sich deutlich
- EEAT ist auch für LLMs und die KI-Suche wichtig - das zeigt ein aktuelles Beispiel
- Google Search Console zeigt Links aus ChatGPT
- Yahoo CEO Jim Lanzone kritisiert Googles KI-Suche: kein Traffic für Websites
- Google GIST Algorithmus: Warum Unique Content jetzt noch wichtiger ist
- GPT-5.4 nutzt bei Query Fan-Out viele Site-Abfragen - Bevorzugung einzelner Websites
- Ahrefs jetzt mit API-Zugriff für alle Pakete: Daten können für eigene SEO-Tools genutzt werden
- Den 'Googlebot' gibt es nicht. Dahinter steckt eine riesige Infrastruktur
- ChatGPT zitiert gelöschte Wikipedia-Artikel und bietet damit Einfallstor für Spam