Bevor man Seiten oder ganze Verzeichnisse per robots.txt sperrt, sollte man erst prüfen, ob es Backlinks gibt, die auf diese Seiten zeigen. Auch die Art und die Relevanz dieser Backlinks sollte man sich ansehen.
Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.
Die wichtigsten Fragen und Antworten rund um SEO und die passenden Dienstleister finden Sie hier.
Die wichtigsten Onsite-Kriterien für Ihre Webseite finden Sie in unserer umfassenden Checkliste.
Bevor man Seiten oder ganze Verzeichnisse per robots.txt sperrt, sollte man erst prüfen, ob es Backlinks gibt, die auf diese Seiten zeigen. Auch die Art und die Relevanz dieser Backlinks sollte man sich ansehen.
Google scheint massive Probleme mit einigen Diensten zu haben. Google News, Discover und Google Drive funktionieren beispielsweise derzeit nicht.
Auch während eines Google Core-Updates können Verbesserungen an Websites durchgeführt werden, ohne dass es zu Konflikten kommt.
Der Aufbau von Backlinks über Foren und andere Websites mit User Generated Content sorgt laut Google für einen schlechten Ruf der verlinkten Websites. Doch gilt das auch dann, wenn es sich um Beiträge in relevanten Foren handelt und die verlinkten Beiträge einen tatsächlichen Mehrwert bieten?
Das Google Core-Update vom Dezember läuft noch, und es zeigt sich bei einigen Websites, dass sich die Auswirkungen vom Beginn aufgelöst oder sogar ins Gegenteil verschoben haben.
Google sieht sich mit dem Vorwurf konfrontiert, Websites mit gefährlichen Falschinformationen besser zu behandeln als Websites, die gegen die Link-Richtlinien verstoßen. Google wehrt sich dagegen.
Das Google Core-Update vom Dezember ist noch nicht abgeschlossen. Es gibt sogar Anzeichen für einen erneuten Schub. Rankings und Suchergebnisse können sich in den kommenden Tagen noch deutlich verändern.
Wenn Google gegen eine Website eine manuelle Maßnahme wegen Thin Contents verhängt, dann sollte man nicht nur auf die betreffende Website blicken. Betreibt man nämlich viele Websites mit sehr ähnlichen Inhalten, so kann dies ein Grund für eine solche manuelle Maßnahme sein.
Google hat Erweiterungen der Search Console API vorgestellt. Neu ist auch, dass die Sitemaps API jetzt Domain Properties unterstützt.
*
Eine von vielen positiven Kundenbewertungen:
"Super Service, kompetente und schnelle Beratung!"
Lucien Feiereisen, Flintec IT GmbH
*
"Sehr gut verständliche und ausführliche Onsite-Analyse für unsere AJAX-Webseite"
Christian Krumbein, Sparradar.com