Das Sperren von Seiten mit Spam-Links per robots.txt bewirkt nicht, dass Google die vorhandenen Links ignoriert.
Das Sperren von Seiten mit Spam-Links per robots.txt bewirkt nicht, dass Google die vorhandenen Links ignoriert.
Die URLs einer Website sollten so einfach wie möglich aufgebaut sein. Es kann aber Fälle geben, in denen komplexe URLs benötigt werden, zum Beispiel für das Tracking. Ist es in einem solchen Fall legitim, Google andere URLs anzuzeigen als den Nutzern?
Die Serie der Google-Updates reißt nicht ab. Erneut gibt es Anzeichen für größere Änderungen der Rankings, die rund um den 14.11. begonnen haben.
Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.
Das Verwenden veralteten HTMLs auf einer Website wird von Google nicht negativ bewertet. Das ist eine gute Nachricht für viele Webmaster.
Google hat darauf hingewiesen, dass Mixed Content auf Webseiten zukünftig zu Problemen beim Abruf der Seiten durch Google und auch durch die Nutzer führen kann. Google Chrome wird ab Version 79 Mixed Content blockieren.
Auch Seiten, die Google aufgrund der robots.txt nicht crawlen kann, sind in der Lage, PageRank zu empfangen. In umgekehrter Richtung funktioniert das allerdings nicht.
Wichtige Kennzahlen wie zum Beispiel der Traffic einer Website sollten laut Google am besten möglichst direkt gemessen werden. Tools von Drittanbietern könnten dagegen Verfälschungen der Daten mit sich bringen.
Grundsätzlich spricht nichts gegen Websites, die nur aus einer einzigen Seite bestehen. Google empfiehlt aber, im Zweifelsfall eher Websites mit mehreren Unterseiten zu erstellen als verschiedene Einzel-Websites.
Bei Websites mit zwei Versionen für Mobile und Desktop sollte laut Google darauf geachtet werden, diese in der robots.txt gleich zu behandeln.
Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.