SEO hat laut Google eine Zukunft und könnte vor allem in technischer Hinsicht an Bedeutung gewinnen. Das liegt zum Beispiel daran, dass es immer mehr Web-Apps gibt.
Wie sieht die Zukunft der SEO aus - und hat SEO überhaupt eine Zukunft? Auf jeden Fall, wenn man den Ausführungen in der neuesten Ausgabe von Googles SEO-Podcast "Search Off the Record" glauben darf. Nachfolgend sind die wichtigsten Erkenntnisse aus dem Podcast zusammengefasst:
- SEOs sollten HTML beherrschen
- JavaScript dürfte an Bedeutung gewinnen
- Domains und URLs wird es weiter geben
- Neue Meta Tags werden, wenn überhaupt, nur wenige entstehen
- Die robots.txt wird für zusätzliche Zwecke nutzbar sein
- Strukturierte Daten dienen weiter als Opt-In für Suche-Features
- Änderungen beim Crawling-Modell geplant?
- Links werden weiter benötigt
- Maschinelle Content-Erstellung ist ein mögliches Entwicklungsfeld für SEOs
- Bilderkennung noch nicht so weit wie angenommen
- Voice Search wird die Suche in ihren Grundzügen nicht verändern
- SEO wird weiter benötigt.
HTML sollte für SEOs selbstverständlich sein
HTML ist die Grundlage des Webs. Und obwohl immer mehr Websites auf Plattformen mit umfangreichen Serviceleistungen laufen, so dass man sich über den Betrieb der Website nur wenige Gedanken machen muss, bleiben HTML-Kenntnisse für SEOs wichtig. Gary Illyes nannte als Beispiel Canonical-Links und Hreflang, deren Funktionsweise verstanden werden müsse, um sie richtig einzusetzen.
Allerdings, so ergänzte Martin Splitt, müsse nicht jeder SEO ein HTML-Experte sein, aber zumindest verstehen, wie HTML funktioniert.
JavaScript könnte an Bedeutung gewinnen
Immer mehr Websites nutzen JavaScript zur Darstellung ihrer Inhalte. Und auch der Trend weg von nativen Apps hin zu Web-Applikationen sorgt für eine wachsende Bedeutung von JavaScript für die SEO. Dadurch erhält die technische SEO eine stärkere Bedeutung als zuvor, während sie gleichzeitig komplexer wird.
Durch die Repräsentation zusätzlicher und vor allem auch komplexerer Inhalte wie zum Beispiel von 3D-Modellen per JavaScript steigen auch die Herausforderungen für Suchmaschinen, diese Inhalte verstehen zu können. Wenn zusätzliche Apps in den Browser verlagert werden, stellt sich die Frage, wie deren Inhalte von Suchmaschinen gefunden werden können.
JavaScript werde sich auch zukünftig weiterentwickeln, so Splitt weiter. Konkurrierenden Ansätzen wie zum Beispiel Silverlight in der Vergangenheit räumte er nur geringe Chancen ein.
Domains und URLs weiter unverzichtbar
Eindeutig war die Prognose der Teilnehmer zur zukünftigen Bedeutung von URLs und Domains. Gary Illyes sagte dazu, diese werde es weiterhin geben, denn auf ihnen basiere die Kommunikation im Internet.
Das Einführen von IPv6 habe schon eine mehrjährige Einführungszeit benötigt, wie Gary Illyes erklärte. Änderungen bei oder die Abschaffung von URLs wären noch wesentlich aufwändiger.
Neue Meta Tags eher selten
Gary Illyes hofft, es werde nur wenige neue Meta Tags geben - wenn überhaupt. Statt dessen sei es sinnvoller, bestehende Meta Tags bei Bedarf mit neuen Direktiven auszustatten, damit keine neuen Meta Tags mehr gelernt werden müssen.
Robots.txt mit neuen Aufgaben?
Gary Illyes erklärte, das robots.txt-Protokoll soll URIs anstatt URLs unterstützen. URIs sind die Obermenge von URLs und stellen Verweise auf Ressourcen dar. URLs hingegen sind eine Teilmenge von URIs und ermöglichen zusätzlich die Lokalisierung der Ressourcen, zum Beispiel durch die Angabe eines Protokolls. Durch die Erweiterung der Anwendbarkeit auf URIs bleibt die robots.txt offen für neue Verwendungsarten in der Zukunft.
Strukturierte Daten als Opt-In
Obwohl Google inzwischen Inhalte sehr gut erkennen und interpretieren kann, sind strukturierte Daten weiterhin eine Möglichkeit, Informationen in standardisierter Weise zur Verfügung zu stellen. Zudem können strukturierte Daten als Opt-In für bestimmte Suche-Features wie zum Beispiel Rich Results dienen.
Ein Ende von strukturierten Daten als zusätzlicher Informationsquelle für Suchmaschinen ist zumindest in naher Zukunft nicht absehbar. Gary Illyes stellte in Aussicht, dass Google irgendwann nicht mehr auf strukturierte Daten angewiesen sein könnte. Google könne zum Beispiel Produktseiten immer besser erkennen und deren Elemente wie Produktbilder identifizieren.
Es könne eine Übergangsphase von strukturierten Daten hin zur Erkennung auf Basis von maschinellem Lernen geben, in der strukturierte Daten als Korrektiv dienen, mit dem Website-Betreiber die automatisch ermittelten Daten überschreiben können.
Änderungen beim Crawling-Modell?
Hinsichtlich aktueller Entwicklungen beim Crawling in Richtung Push-Modell wie zum Beispiel durch das IndexNow-Protokoll von Microsoft sagte Martin Splitt, dies sei mit einigem Aufwand verbunden. Hier seien zunächst einmal die Website-Betreiber zu nennen, welche die jeweiligen APIs ansprechen müssten.
Wenn jeder ständig neue Informationen veröffentlichen würde, müssten die Suchmaschinen entscheiden, welche Inhalte sie wann bearbeiten, weil nicht alles zugleich geschehen könne. Wie so etwas aussehen könne, sehe man wohl erst in einigen Jahren.
Gary Illyes warnte außerdem vor der Gefahr, dass auf diese Weise Spam eingereicht werden könne. Filter könnten hier zwar helfen, könnten aber zur irrtümlichen Erkennung von Spam führen, sogenannten False Positives.
Illyes nannte als Alternative zum Push-Modell ein intelligenteres Crawling, das neue Inhalte noch gezielter entdecken kann.
Links werden weiter benötigt
Links werden auch in Zukunft eine Bedeutung haben. Dies laut Illyes vor allem, weil sie zu den Grundbausteinen des Webs gehören. Allerdings könnte die Bedeutung von Links für die Rankings sinken. Illyes sagte dazu "Möglicherweise benötigen wir nicht so viele Links, wie es die Menschen glauben."
Maschinelle Content-Erstellung ein Entwicklungsfeld für SEOs?
Maschinell erstellte Inhalte werden immer besser. Wenn es nicht mehr erkennbar ist, dass Content maschinell erstellt wurde - warum sollte er für die Suche nicht zulässig sein? Laut John Müller sind maschinell erstellte Inhalte ein Bereich, der für SEOs zukünftig interessant werden könnte. Es gab zuletzt Anzeichen dafür, dass Google seine strikte Haltung gegenüber solchen Inhalten ändern könnte.
Erkennung von Bildern noch nicht so weit wie von manchen angenommen
Laut Gary Illyes ist Google noch nicht so weit, genügend Eigenschaften von Darstellungen auf Bildern zu erkennen, um auf zusätzliche Daten verzichten zu können. So sei Google vor ein paar Jahren noch nicht in der Lage gewesen, das Geschlecht einer Person auf einem Bild zu erkennen. Und er glaube, Google sei hier noch nicht wesentlich weiter.
Keine wesentlichen Änderungen durch Voice Search erwartet
Voice Search ändert laut Martin Splitt nichts an der grundsätzlichen Weise, wie Informationen durch Suchmaschinen bereitgestellt werden. Lediglich die Phrasierung sei ein wenig anders. Es sei daher nicht davon auszugehen, dass es in der Suche wesentliche Änderungen durch Voice Search geben wird.
Fazit: SEO wird bleiben
Als Fazit stellten die Beteiligten fest, dass SEO auch in Zukunft benötigt wird. Das zeigen die Ausführungen zu den einzelnen Teilgebieten. Schwerpunkte können dabei auf HTML und JavaScript liegen. Als Gebiet mit Perspektive für SEOs können maschinell erstellte Inhalte gelten.
SEO-Newsletter bestellen