SEO-News

Googlebot mit LupeWenn Google zu viele und auch noch die falschen URLs crawlt, gibt es mehrere Möglichkeiten, dies zu verhindern. Neben der robots.txt können zum Beispiel auch die Einstellungen der Crawl-Frequenz hilfreich sein.

Normalerweise ist das Crawlen einer Website durch Google unproblematisch. Kleine und größere Websites kann Google in den meisten Fällen ohne Schwierigkeiten erfassen.

Durch bestimmte Umstände ist es jedoch möglich, dass die Anzahl der zu crawlenden URLs so groß wird, dass sie eine Beeinträchtigung für das Crawlen insgesamt darstellen kann. Ein Beispiel dafür kann das Anbieten einer Suchfunktion auf einer Website sein: Wenn jeder eingegebene Suchbegriff zu einer eigenständigen URL führt, steigt deren Anzahl dadurch theoretisch ins Unendliche.

Eine weitere Quelle unkontrollierbarer URLs sind Open Redirects: Auf manchen Websites gibt es Weiterleitungen, die sich per URL-Parameter auslösen lassen, um zum Beispiel auf Nutzereingaben zu reagieren. Solche Open Redirects stellen eine Sicherheitslücke dar und können ebenfalls zu einer unbegrenzten Menge von URLs führen.

Als drittes Beispiel können sogenannte Spider Traps genannt werden: Dabei handelt es sich um Konstrukte auf einer Website, die durch das Erzeugen einer unendlichen Anzahl von URLs zu Crawling-Problemen führen können. Oftmals sind Spider Traps in Verbindung mit Online-Kalendern zu beobachten. Wenn solche Online-Kalender für jedes Datum eine eigenständige URL erzeugen und Google diese URLs crawlen kann, lässt dies die Anzahl der gecrawlten URLs ebenfalls stark ansteigen.

Um solchen Problemen zu begegnen, gibt es mehrere Möglichkeiten. Zunächst sollte natürlich die Ursache des Problems gelöst werden, zum Beispiel, indem man eine möglicherweise vorhandene Spider Trap entfernt.

Zur direkten und kurzfristien Beeinflussung des Crawlens gibt außerdem verschiedene Maßnahmen, die John Müller in den Google Search Central SEO Office Hours vom 9. April vorstellte:

 

Das Sperren der betreffenden URLs per robots.txt

Per robots.txt lässt sich verhindern, dass Google die unerwünschten URLs weiterhin crawlt. Problematisch kann das Sperren per robots.txt aber dann sein, wenn bereits viele der URLs indexiert wurden, denn das Indexieren lässt sich nicht per robots.txt sperren. Zudem kann Google ein möglicherweise auf den Seiten vorhandenes "noindex" nicht erkennen, wenn sie nicht gecrawlt werden können. Bereits indexierte Seiten bleiben damit also im Index erhalten. Und es können weitere Seiten indexiert werden, zum Beispiel dann, wenn sie von anderen Seiten verlinkt sind. Auch das lässt sich per robots.txt nicht verhindern. Google wird die Seiten dann allerdings ohne Inhalte indexieren, weil das Crawlen der Seiten nicht möglich ist.

 

Das Verringern der Crawl-Frequenz per Google Search Console

In der Google Search Console gibt es die Möglichkeit, die Crawl-Frequenz des Googlebots manuell zu reduzieren. Wie John Müller erklärte, führt das dazu, dass sich Google beim Crawlen auf die wichtigen URLs konzentriert. Problematische URLs wie solche aus den oben genannten Beispielen würden dann weniger gecrawlt werden.

 

Feedback an Google senden

Wenn die genannten Maßnahmen nicht zum gewünschten Erfolg führen, kann man per Google Search Console Feedback an das für das Crawlen zuständige Team von Google senden und darauf hoffen, Unterstützung zu erhalten.

 

Fazit

Wichtig ist, in Situationen mit Crawling-Problemen schnell zu reagiere, die Ursachen der Probleme zu beseitigen und dafür zu sorgen, dass nicht noch mehr unerwünschte URLs gecrawlt und indexiert werden. Welche Maßnahmen dabei am besten geeignet sind, hängt von der jeweiligen Situation ab.

Im Zweifelsfall sollte man sich Rat bei erfahrenen Personen suchen - zum Beispiel über das Google Hilfe-Forum.

 

Titelbild: Google

 


Christian Kunz

Von Christian Kunz

SEO-Experte. Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier.



Anzeigen

Artikelveröffentlichungen auf starken Magazinen und Blogs

Wir kooperieren mit unzähligen Verlagen und Bloggern und können daher auf über 4000 Blogs zu fast allen Themengebieten Artikelplätze anbieten:

    - Nachhaltiger Linkaufbau, kein SEO-Netzwerk
    - Hohe Sichtbarkeitswerte, keine expired Domains
    - Einmalzahlung, keine Vertragsbindung

Für jede Artikelveröffentlichung erstellen wir hochwertigen Content mit mindestens 400 Wörtern und publizieren den Artikel mit einem DoFollow-Bachlink zu deiner Seite auf einem Magazin oder Blog deiner Wahl.

Frag uns unverbindlich nach Beispielen



SEO-Vergleich





Verwandte Beiträge

SEO-Newsletter bestellen

Im monatlichen SEO-Newsletter erhaltet Ihr eine Übersicht der jeweils zehn wichtigsten SEO-Meldungen des Monats. Mit dem SEO-Newsletter bleibt Ihr auf dem Laufenden.
Ich bin mit den Nutzungsbedingungen einverstanden

Anzeige

Search One

 

Anzeige

rnkeffect

 

Premium-Partner (Anzeige)


Anzeigen

InterNetX

trust in time

SEO Agentur aus Darmstadt

SEO-Vergleich

Backlink-Kampagnen

SEO-Beratung

Suchmaschinenoptimierung und SEO-Beratung für Karlsruhe, Baden und die Pfalz

 

06340/351-943

 

info(at)seo-suedwest.de

Auszeichnungen

SEO-Vergleich.de: Top 30 SEO-Agenturen mit der höchsten Sichtbarkeit 2020

iBusiness Top-100-Liste SEO-Dienstleister

SEO Südwest: Platz 5 bei den SEO-Wahlen 2014 zum besten deutschen SEO-Blog

 

SEO-united.de Tipp 12/15

Sprecher auf

Onsite-Optimierung

Onsite-Optimierung

 

SEO- und Suchmaschinenblogs

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

SEO selber machen

SEO selber machen

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO-Kalender 2020

SEO-Kalender 2019

 

SEO im Ohr, der Podcast von SEO Südwest: aktuell Folge

IMAGE Warum die Anzahl von 404-Fehlern kein Qualitätsmerkmal ist und 404-Fehler dennoch ein gutes Zeichen sein können: SEO im Ohr - Folge 168
Freitag, 24. September 2021
Für Google sind 404-Fehler auf einer Website kein Problem, das die Qualitätsbewertung der Website negativ beeinflussen würden. 404-Fehler in der Google Search Console können sogar ein gutes Zeichen sein. Die Klickwahrscheinlichkeit von Links... Weiterlesen...

SEO-Tipps und SEO-Tricks

IMAGE 'Noindex' oder robots.txt - wann ist welches Instrument das richtige?
Freitag, 09. Februar 2018
Um zu steuern, welche Seiten von Google und anderen Suchmaschinen gecrawlt und indexiert werden... Weiterlesen...
IMAGE Lighthouse: ein Top-Tool für die Performancemessung von Webseiten und PWAs
Montag, 16. Oktober 2017
Lighthouse ist ein Tool, mit dem man die Performance und die Nutzerfreundlichkeit von Progressive... Weiterlesen...
IMAGE Tipp: Reddit für den Aufbau von Backlinks nutzen
Samstag, 17. Januar 2015
Die Social-News-Plattform Reddit erlaubt den Aufbau von guten Backlinks - wenn man sich an... Weiterlesen...

News aus dem Blog

IMAGE Google Webmaster Conference 2019 in Zürich – Recap
Mittwoch, 11. Dezember 2019
Auf der diesjährigen Google Webmaster Conference in Zürich, die erstmals im Raum EMEA... Weiterlesen...
IMAGE Google Webmaster Hangout: A visit at the Google Zurich office
Donnerstag, 05. Juli 2018
I was invited to Google Zurich to take part in a new episode of the Webmaster Office Hangout. I was... Weiterlesen...
IMAGE SEO-Rückblick 2020: Gespräch mit Markus Hövener
Dienstag, 01. Dezember 2020
Ein SEO-Rückblick in lockerer und entspannter Weise: Markus Hövener und ich sprechen über einige... Weiterlesen...

 Eine Auswahl zufriedener Kunden

Rebel - Bad Küche Raum
Schöne Haare Karlsruhe
kr3m
feel-perfect.eu - Die Nährstoffexperten border=
Flintec IT GmbH
ESM Academy
Ringladen

Verbinden und Informationen zu SEO Südwest

Impressum und Datenschutz

Social Networks und RSS-Feed