URLs in XML-Sitemaps haben für Google ein großes Gewicht und werden als wichtiges Signal für die Bestimmung von Canonicals genutzt. Man sollte aber darauf achten, keine widersprüchlichen Signale bezüglich der Canonicals zu senden.
Das Setzen mehrerer Titel pro Seite sollte laut Google vermieden werden, weil es dadurch schwierig sei, eine Auswahl für die Anzeige in den Suchergebnissen zu treffen.
Die Download-Zeit einer Webseite stellt einen wichtigen Faktor der Webseitengeschwindigkeit dar. Wenn das Herunterladen der Dateien einer Seite zu lange dauert, kann sich das negativ auf die Crawling-Rate auswirken.
Für jeden Webseitenbetreiber ist es besonders ärgerlich, wenn eigene Inhalte auf einer anderen Webseite kopiert werden und diese dann auch noch bessere Rankings erzielt als das Original. Normalerweise geschieht das aber nicht: Meistens sind technische Probleme auf der Originalseite die Ursache.
Google hat darauf hingewiesen, dass bei URLs zwischen Groß- und Kleinschreibung unterschieden wird. Wenn eine Seite über URLs in verschiedenen Varianten erreichbar ist, besteht die Gefahr von Duplicate Content. Und es gibt weitere Gründe, auf Großschreibung in URLs zu verzichten.
307-Redirects stellen eine besondere Form der Weiterleitung dar. Anders als gewöhnliche 301- oder 302-Redirects können sie nicht nur vom Server, sondern auch vom Browser durchgeführt werden. Wie geht Google damit um?
Eine Webseite sollte laut Google einen 404-Fehler senden, wenn eine ungültige URL aufgerufen wird. Nicht zu empfehlen sind dagegen 500er-Fehler, die auf Probleme des Servers hinweisen.
Beim Bloggen kommt es auf das richtige Timing an. Wer den richtigen Zeitpunkt für die Veröffentlichung eines neuen Beitrags wählt, kann damit mehr Aufmerksamkeit erzielen.
Das Übernehmen fremder, bereits bestehender Inhalte auf die eigene Webseite ist keine gute Idee, denn Google verlangt von jeder Seite einen Mehrwert. Zur Orientierung gibt es eine Reihe von Kriterien, anhand derer man die Qualität einer Seite messen kann.
Seiten, die auf "noindex" gesetzt werden, fallen früher oder später aus dem Google-Index heraus. Das führt dazu, dass auch die Links auf diesen Seiten nicht mehr berücksichtigt werden.
Strukturierte Daten helfen den Suchmaschinen dabei, die Inhalte von Webseiten besser zu verstehen. Wenn diese Daten aber nur für die Crawler wie zum Beispiel den Googlebot angezeigt werden, kann das als Cloaking gelten und unangenehme Folgen haben.
Das Einbinden zusätzlicher Texte im unteren Bereich von Webseiten kann Vorteile bringen - auch im Hinblick auf die Suchmaschinen wie Google. Allerdings muss man darauf achten, dass die Inhalte nicht unnatürlich wirken.
Für Google gibt es keine Obergrenze für die Zahl der internen Links auf einer Seite. Wichtig sei lediglich, dass Google alle Unterseiten erreichen könne.
Das Verwenden protokoll-relativer URLs für Canonical-Links ist aus Sicht Googles möglich. Dennoch ist davon abzuraten, denn es drohen Sicherheits- und Performanceprobleme.
Google hat ein neues Tool zum Testen von Rich Results herausgebracht. Damit lässt sich überprüfen, ob eine Webseite dafür geeignet ist, bestimmte zusätzliche Elemente in den Ergebnis-Snippets zu erhalten. Derzeit ist die Bandbreite der testbaren Daten allerdings noch begrenzt.
Trailing Slashes in URLs, also am Ende von URLs stehende Slashes bzw. Schrägstriche, können sich auf das Crawlen und Indexieren durch Google auswirken. Was dabei beachtet werden muss, hat Johannes Müller heute mitgeteilt.
Webseiten, die Besuchern mit aktiviertem Adblocker einen Warnhinweis ausgeben oder bei aktiviertem Adblocker keine Inhalte anzeigen, können Probleme mit dem Crawlen durch Google und anderen Suchmaschinen bekommen.
Das Verwenden einer veralteten TLS-Version auf Webseiten, die per HTTPS ausgespielt werden, wirkt sich nicht negativ auf die Rankings aus. Ein Sicherheitsproblem besteht dennoch.