Seiten, die in der Google Search Console unter 'gefunden, nicht indexiert' aufgelistet sind, wurden von Google bisher nicht gecrawlt, oder wurden aus dem Index entfernt. Das kann verschiedene Gründe haben.
Im Indexierungsbericht der Google Search Console gibt es die Kategorie "gefunden, nicht indexiert". Dort sind Seiten bzw. URLs aufgelistet, auf die der Googlebot gestoßen ist - zum Beispiel beim Crawlen anderer Seiten oder in einer XML-Sitemap.
Diese URLs wurden von Google aber bisher noch nicht gecrawlt - oder waren schon einmal indexiert und wurden wieder aus dem Index entfernt.
Sie benötigen SEO-Beratung für Ihre Website?
Welche Gründe es geben dafür geben kann, dass Google gefundende URLs (noch) nicht crawlt, erklärt jetzt Martin Splitt von Google in einem neuen Video. Zunächst einmal weist Splitt darauf hin, dass Google fast nie alle Inhalte einer Website crawlt. Google legt die gefundenen URLs ab, um sie zu einem späteren Zeitpunkt zu besuchen. Das hatte zuletzt auch Gary Illyes beschrieben. Das ist der erste Grund, warum URLs in der Liste "gefunden, nicht indexiert" erscheinen können, denn es ist für Google nicht möglich, alle gefundenen URLs sofort zu crawlen.
Der zweite Grund ist technischer Natur: Wenn auf einer Website auf einmal viele neue URLs hinzukommen, könnte das sofortige Crawlen aller dieser URLs den Webserver überlasten. Daher ist es sinnvoll, diesen Vorgang über einen längeren Zeitraum zu verteilen. Um auf technische Probleme zu prüfen, kann man sich den Crawl-Report in der Google Search Console ansehen und kontrollieren, ob dort Serverfehler (500er) ausgewiesen sind. Auch im Indexierungsbericht werden Serverfehler angezeigt.
Als dritten und häufigsten Grund für das Ausbleiben von Crawlen und Indexieren durch Google nennt Martin Splitt die Qualität. Wenn Google Muster von geringer Qualität oder von Thin Content auf Seiten erkennt, dann können die betreffenden Seiten aus dem Index entfernt werden und im Zustand "gefunden" verbleiben. Das ist ein wichtiger Hinweis, denn unter "gefunden, nicht indexiert" können damit auch solche Seiten erscheinen, die schon einmal indexiert waren, dann aber wieder aus dem Index entfernt wurden.
Wenn Google ein Muster in URLs mit geringer Qualität erkennt, kann es sein, dass Google alle betreffenden URLs überspringt und sie ebenfalls im Zustand "gefunden, nicht indexiert" belässt.
Um Google dazu zu bewegen, Seiten zu crawlen und zu indexieren, sollte man laut Martin Splitt die Qualität der Seiten verbessern und sie durch interne Links besser mit anderen Inhalten der Website verbinden. Außerdem sollte man darauf achten, dass der Webserver durch das Crawlen vieler Seiten nicht überfordert ist.
SEO-Newsletter bestellen