Google begrenzt den Suche-Traffic nicht für Websites, die auf einem langsamen Server laufen. Auch für Google Discover gibt es eine solche Begrenzung nicht. Auswirkungen kann die Leistungsfähigkeit eines Webservers aber auf das Crawlen haben.
Wenn der Server einer Website beim Crawlen Probleme bekommt, kann Google die Anzahl der gecrawlten URLs reduzieren. Das gilt jedoch nicht für den Suche-Traffic bzw. die Darstellung einer Website in Google Discover. Wie John Müller in den Google Search Central SEO Office Hours vom 22. Januar erklärte, gebe es bei Google keine generellen Limits für den Suche-Traffic. Das gelte auch für Discover. Die optimale Situation sei es doch, wenn Google eine gute Website erkenne und diese dann alle zur Verfügung stellen könne. Wenn sich eine Website verlangsame, dann könne sich aber auch das Crawlen verlangsamen, der Rest sollte aber gleich bleiben, so Müller weiter.
Hohe Ladezeiten allerdings ungünstig auf die Darstellung in der Suche auswirken. Zwar ist die Ladezeit ein vergleichsweise schwacher Rankingfaktor, aber sie kann den Ausschlag über eine bessere oder schlechtere Platzierung geben, wenn die übrigen Faktoren in etwa gleichwertig sind.
Titelbild: Copyright WDnet Studio - stock.adobe.com
Artikelveröffentlichungen auf starken Magazinen und Blogs
Wir kooperieren mit unzähligen Verlagen und Bloggern und können daher auf über 4000 Blogs zu fast allen Themengebieten Artikelplätze anbieten:
- - Nachhaltiger Linkaufbau, kein SEO-Netzwerk
- - Hohe Sichtbarkeitswerte, keine expired Domains
- - Einmalzahlung, keine Vertragsbindung
Für jede Artikelveröffentlichung erstellen wir hochwertigen Content mit mindestens 400 Wörtern und publizieren den Artikel mit einem DoFollow-Bachlink zu deiner Seite auf einem Magazin oder Blog deiner Wahl.