Vorsicht bei Links, die im HTML-Quellcode von Plugins für WordPress und andere Content Management Systeme verborgen sind: Solche 'Hidden Links' können gegen Googles Webmaster-Richtlinien verstoßen und den Rankings der betreffenden Seiten schaden.
Für manche Suchergebnisse verwendet Google Inhalte, die auf der betreffenden Webseite gar nicht vorkommen. Das führt öfter zur Verwirrung bei den betroffenen Webmastern, hat aber eine recht simple Ursache.
URLs müssen valide und einzigartig sein. Leerzeichen, Kommata und Sonderzeichen sollte man dagegen vermeiden. Das sind einige der Tipps in Googles aktuellem Video aus der Serie "SEO-Snippets".
Bis sich Optimierungen auf einer Webseite in den Suchergebnissen widerspiegeln, kann es sehr lange dauern - sogar mehrere Monate. Das ist insbesondere dann der Fall, wenn es sich um seitenweite Änderungen handelt.
Sitemaps sind zwar ein geeignetes Mittel, um Google auf neue oder geänderte URLs hinzuweisen, sie ersetzen aber nicht die interne Verlinkung einer Webseite.
Wenige Tage, nachdem Bing die Unterstützung von JSON-LD für strukturierte Daten bekannt gegeben hat, wurden jetzt erste Rich Snippets entdeckt, die auf diesen Daten basieren.
Der Titel gehört zu den wichtigsten Elementen, wenn es um die Optimierung von Webseiten geht. Er kann erstens zu besseren Rankings beitragen und zweitens die Klickrate verbessern. Dabei sollte vor allem auf eine knappe und aussagekräftige Formulierung geachtet werden. Das hat Google jetzt wieder betont.
Sitemaps sind nur dann hilfreich, wenn sie den neuesten Stand einer Webseite abbilden. Wenn die Zeitabstände zwischen den Aktualisierungen zu groß sind, geht der Nutzen der Sitemap zum Teil verloren.
Das Sperren von URLs per robots.txt verhindert, dass Google Duplicate Content erkennen kann. Stattdessen sollte man zum Verhindern von Duplikaten in der Suche auf Canonical-Links setzen.
Wer neue Inhalte auf seiner Webseite veröffentlicht, möchte diese so schnell wie möglich für potentielle Besucher sichtbar machen. Dazu gehört es auch, dass die Inhalte in den Ergebnissen von Google zu finden sind. Es gibt verschiedene Möglichkeiten, wie man die Indexierung neuer Inhalte beschleunigen kann.
Noch immer fragen sich viele Webmaster: Ist ein 301- oder ein 302-Redirect die bessere Wahl? Dabei ist es gar nicht schwer, die richtige Entscheidung zu treffen. Und sollte man doch einmal daneben liegen, ist das in der Regel nicht schlimm.
Wenn auf einer Webseite vor der Anzeige der eigentlichen Inhalte eine Hinweisseite erscheint, kann das dazu führen, dass Google die Seite nicht crawlen kann. Wie man mit obligatorischen Hinweisseiten im Zusammenhang mit Google umgehen sollte, wurde jetzt in einem aktuellen Webmaster-Hangout beschrieben.
Webseiten, auf denen häufiger neue Inhalte veröffentlicht werden, genießen bei Google nicht automatisch Vorteile. Allerdings kann sich die Frequenz neuer Inhalte auf das Crawlen auswirken.
Bing hat angekündigt, ein Tool zum Überprüfen von strukturierten Daten im JSON-LD-Format zu entwickeln. Dieses soll in die Bing Webmaster Tools integriert werden. Bereits jetzt wird JSON-LD für die Auszeichnung strukturierter Daten von Bing unterstützt.
Nachdem Google den verfügbaren Platz für die Meta Description in den Snippets erweitert hat, stellt sich für viele Webmaster und SEOs die Frage: Sollten bestehende Descriptions erweitert werden? Eine aktuelle Fallstudie zeigt: Die Erweiterung kann zu einer erhöhten Klickrate führen.
Immer mehr Webseiten wurden bereits auf HTTPS umgestellt oder sollen demnächst umgestellt werden. Laut Google ist das inzwischen unproblematisch. Starke Veränderungen der Rankings müssen demnach nicht mehr befürchtet werden - wenn der Umzug korrekt durchgeführt wird.
Aus Sicht Googles ist es nicht notwendig, innerhalb von iFrames eine Beschreibung anzugeben. Die Gefahr, dass Google eine solche Beschreibung als Spam ansieht, scheint jedoch gering.