UmleitungWenn es auf einer Website ein Sicherheitsproblem mit Open Redirects gibt, sollte man nicht die Crawl-Rate des Googlebots reduzieren, sondern die Sicherheitslücke stopfen. Darauf hat Gary Illyes von Google hingewiesen.

Open Redirects sind ein Sicherheitsproblem auf manchen Websites. Das Problem besteht darin, dass beliebige Redirects per URL-Parameter ausgeführt werden können, weil diese vor der Ausführung von der betreffenden Website nicht geprüft werden. Beispiel: In der URL beispiel.de/login.html?RelayState=http%3A%2F%2Fbeispiel.de%2Fnext gibt der Parameter 'RelayState' an, auf welche URL nach dem Login weitergeleitet werden soll, und zwar auf http://beispiel.de/next.

Wenn hier nicht geprüft wird, welches Ziel im URL-Parameter angegeben wird, kann dies zum Beispiel für Phishing-Attacken genutzt werden. In einem Angriffssznario könnte zum Beispiel der entsprechende Parameter in einer langen URL versteckt werden, um die Nutzer nach dem Login auf eine nachgebaute Seite zu leiten.

Auch im Hinblick auf Google können Open Redirects problematisch sein, weil dadurch praktisch beliebige Weiterleitungen möglich sind. Dadurch kann die Anzahl der vom Googlebot zu crawlenden URLs stark ansteigen.

Wenn die eigene Website von Open Redirects betroffen ist, sollte man aber nicht damit reagieren, die Crawl-Rate des Googlebots zu reduzieren (entsprechende Einstellungen sind in der Google Search Console möglich). Besser ist es laut Gary Illyes von Googe, die Sicherheitslücke zu stopfen, Das schrieb er gerade auf Twitter:

 

Google: bei Open Redirects nicht die Crawl-Rate des Googlebots reduzieren, sondern die Sicherheitslücke stopfen

 

Es gibt verschiedene Möglichkeiten, eine Open Redirect Vulnerability zu beheben. Dazu gehören das Validieren der im Parameter angegebenen URLs sowie das Prüfen gegen eine Whitelist, in welcher erlaubte URLs enthalten sind.

 

Titelbild: Copyright lotharnahler - Fotolia.com

 


Christian Kunz

Von Christian Kunz

SEO-Experte.
Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier


Anzeige

SEO-Vergleich


Verwandte Beiträge

Damit Google eine Website crawlen kann, muss der Webserver die richtige HTTP-Antwort an den Googlebot senden. Ansonsten kann es zu Problemen kommen.

Das Tool zum Begrenzen der Crawl-Rate aus der Google Search Console wird zum heutigen 8. Januar eingestellt. Google kann die Crawl-Rate selbst am besten an die jeweiligen Bedingungen anpassen.

Google hat angekündigt, das Crawl Limiter Tool, mit dem sich die Crawl-Rate des Googlebots manuell reduzieren lässt, zum 8. Januar einzustellen.

SEO-Newsletter bestellen

Im monatlichen SEO-Newsletter erhaltet Ihr eine Übersicht der jeweils zehn wichtigsten SEO-Meldungen des Monats. Mit dem SEO-Newsletter bleibt Ihr auf dem Laufenden.
Ich bin mit den Nutzungsbedingungen einverstanden