SEO-News

Google-SchildWenn Google gefundene Seiten nicht indexiert, hat das meist mit der URL-Struktur einer Webseite zu tun. Was man unternehmen kann, wenn dieses Problem auftritt, hat Google jetzt erklärt.

In der Google Search Console gibt es den Bericht zur Indexabdeckung. Dort erhält man Informationen darüber, welche Seiten Google indexiert hat und welche nicht. Wenn Google bestimmte Seiten nicht crawlt und indexiert, obwohl der Googlebot sie endtdeckt hat, kann das an einer Überlastung des Servers der Webseite liegen. In der Google-Hilfe heißt es dazu:

"Gefunden – zurzeit nicht indexiert: Die Seite wurde von Google gefunden, aber noch nicht gecrawlt. Wird diese Begründung angegeben, hat Google üblicherweise versucht, die URL zu crawlen, aber die Website war überlastet. Daher musste Google das Crawling neu planen. Aus diesem Grund ist das Feld mit dem letztem Crawling-Datum im Bericht leer."

Tatsächlich gibt es aber noch einige Gründe mehr, die Google dazu veranlassen können, gefundene URLs nicht zu berücksichtigen. Das erklärte Johannes Müller in einem aktuellen Webmaster-Hangout. Oftmals ist eine der folgenden Ursachen für das Problem verantwortlich:

  • Automatisch erzeugte Inhalte und URLs
  • Schlechte interne Verkinkung

Dynamisch erzeugte Inhalte, die sich auf eine große Anzahl von URLs verteilen, mag Google nicht. Wenn sich die Inhalte pro URL nur wenig unterscheiden und es viele sehr ähnliche URLs gibt, entscheidet sich Google oftmals dazu, diese zu ignorieren. Müller sagte dazu wörtlich:

"Wenn Ihr Inhalte automatisch erzeugt, wenn Ihr Inhalte aus einer Datenbank nehmt und diese einfach online stellt, dann ist das vielleicht etwas, das wir uns ansehen und sagen, hier gibt es zwar eine Menge von Inhalten, aber die Seiten ähneln einander oder sie sind sehr ähnlich zu Inhalten, die wir bereits indexiert haben, so dass es sich nicht lohnt, diese Seiten aufzunehmen und in den Suchergebnissen anzuzeigen."

Müller empfahl, zunächst einmal technisch zu prüfen, ob nicht aus Versehen zu viele ähnliche URLs erzeugt werden. Dabei können URL-Parameter sowie Groß- und Kleinschreibung eine wichtige Rolle spielen.

Auch die interne Verlinkung sollte überprüft werden, so dass sichergestellt ist, dass Google alle wichtigen Seiten vom Anfang bis zum Enden crawlen kann. Dazu empfahl Müller den Einsatz von Crawling-Tools wie Screaming Frog.

Müller riet schließlich dazu, im Zweifelsfall die Zahl der Seiten zu reduzieren. Das könne dazu führen, dass die verbleibenden Seiten stärker würden. Auf diesen Effekt hatte Müller bereits vor wenigen Wochen hingewiesen.

Zusammenfassend sollte man also die folgenden drei Maßnahmen treffen, falls Google einen großen Anteil bestehender Seiten nicht indexiert: Prüfen, ob zu viele ähnliche URLs generiert werden, die interne Verlinkung untersuchen und gegebenenfalls mehrere Seiten zu größeren Seiten verbinden.

 

Danke an Search Engine Roundtable

 


Christian Kunz

Von Christian Kunz

SEO-Experte.
Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier


Anzeige

SEO-Vergleich


Verwandte Beiträge

SEO-Newsletter bestellen

Im monatlichen SEO-Newsletter erhaltet Ihr eine Übersicht der jeweils zehn wichtigsten SEO-Meldungen des Monats. Mit dem SEO-Newsletter bleibt Ihr auf dem Laufenden.
Ich bin mit den Nutzungsbedingungen einverstanden

Anzeige

rnkeffect

Premium-Partner (Anzeige)


Anzeigen

InterNetX

SEO Freelancer

SEO Agentur aus Darmstadt

SEO-Vergleich

Online Solutions Group


Sprecher auf

Onsite-Optimierung

Onsite-Optimierung

 

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

SEO selber machen

SEO selber machen

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO im Ohr, der Podcast von SEO Südwest: aktuell Folge

SEO-Beratung

Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.

Social Networks und RSS-Feed

Auszeichnungen

seo19 sieger sichtbarkeit 2020 200x200px