SEO-News

UmleitungWenn es auf einer Website ein Sicherheitsproblem mit Open Redirects gibt, sollte man nicht die Crawl-Rate des Googlebots reduzieren, sondern die Sicherheitslücke stopfen. Darauf hat Gary Illyes von Google hingewiesen.

Open Redirects sind ein Sicherheitsproblem auf manchen Websites. Das Problem besteht darin, dass beliebige Redirects per URL-Parameter ausgeführt werden können, weil diese vor der Ausführung von der betreffenden Website nicht geprüft werden. Beispiel: In der URL beispiel.de/login.html?RelayState=http%3A%2F%2Fbeispiel.de%2Fnext gibt der Parameter 'RelayState' an, auf welche URL nach dem Login weitergeleitet werden soll, und zwar auf http://beispiel.de/next.

Wenn hier nicht geprüft wird, welches Ziel im URL-Parameter angegeben wird, kann dies zum Beispiel für Phishing-Attacken genutzt werden. In einem Angriffssznario könnte zum Beispiel der entsprechende Parameter in einer langen URL versteckt werden, um die Nutzer nach dem Login auf eine nachgebaute Seite zu leiten.

Auch im Hinblick auf Google können Open Redirects problematisch sein, weil dadurch praktisch beliebige Weiterleitungen möglich sind. Dadurch kann die Anzahl der vom Googlebot zu crawlenden URLs stark ansteigen.

Wenn die eigene Website von Open Redirects betroffen ist, sollte man aber nicht damit reagieren, die Crawl-Rate des Googlebots zu reduzieren (entsprechende Einstellungen sind in der Google Search Console möglich). Besser ist es laut Gary Illyes von Googe, die Sicherheitslücke zu stopfen, Das schrieb er gerade auf Twitter:

 

Google: bei Open Redirects nicht die Crawl-Rate des Googlebots reduzieren, sondern die Sicherheitslücke stopfen

 

Es gibt verschiedene Möglichkeiten, eine Open Redirect Vulnerability zu beheben. Dazu gehören das Validieren der im Parameter angegebenen URLs sowie das Prüfen gegen eine Whitelist, in welcher erlaubte URLs enthalten sind.

 

Titelbild: Copyright lotharnahler - Fotolia.com

 


Christian Kunz

Von Christian Kunz

SEO-Experte.
Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier


Anzeige

SEO-Vergleich


Verwandte Beiträge

Damit Google eine Website crawlen kann, muss der Webserver die richtige HTTP-Antwort an den Googlebot senden. Ansonsten kann es zu Problemen kommen.

Das Tool zum Begrenzen der Crawl-Rate aus der Google Search Console wird zum heutigen 8. Januar eingestellt. Google kann die Crawl-Rate selbst am besten an die jeweiligen Bedingungen anpassen.

Google hat angekündigt, das Crawl Limiter Tool, mit dem sich die Crawl-Rate des Googlebots manuell reduzieren lässt, zum 8. Januar einzustellen.

SEO-Newsletter bestellen

Im monatlichen SEO-Newsletter erhaltet Ihr eine Übersicht der jeweils zehn wichtigsten SEO-Meldungen des Monats. Mit dem SEO-Newsletter bleibt Ihr auf dem Laufenden.
Ich bin mit den Nutzungsbedingungen einverstanden

Anzeige

rnkeffect

Premium-Partner (Anzeige)


Anzeigen sedo

SEO Agentur aus Darmstadt

SEO-Vergleich

Online Solutions Group


Onsite-Optimierung

Onsite-Optimierung

 

Sprecher auf

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO im Ohr, der Podcast von SEO Südwest: aktuell Folge

SEO-Beratung

Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.

Social Networks und RSS-Feed

Auszeichnungen

seo19 sieger sichtbarkeit 2020 200x200px