SEO selber machen

Technische SEODie technische Suchmaschinenoptimierung oder kurz Technische SEO sorgt dafür, dass die Inhalte von Webseiten sowohl von den Suchmaschinen als auch von den Nutzern schnell und in der jeweils optimalen Weise abgerufen werden können.

Neben den Inhalten spielt auch die Technische SEO eine entscheidende Rolle für die Platzierung in den Suchergebnissen. Die besten Inhalte nützen nichts, wenn Google sie nicht abrufen, also crawlen, und indexieren kann. Wichtig ist außerdem, dass die Inhalte schnell und optimal für jedes Gerät angezeigt werden.

Als weiterer Aspekt kommt die Datensicherheit hinzu: Wenn eine Webseite per HTTPS abgerufen werden kann, erfolgt die Übertragung der Daten verschlüsselt, so dass ein Mitlesen oder eine Manipulation der Daten durch Dritte erschwert wird.

In den folgenden Anschnitten wird beschrieben, wie man eine Webseite technisch so ausstatten kann, dass sie sowohl für Google als auch für die Nutzer gut und sicher erreichbar ist. Das kann sich in Form zufriedener Nutzer und besserer Rankings auszahlen.

 

Page Speed

Die Ladezeit von Webseiten ist ein Rankingfaktor bei Google. Wohl gemerkt nicht der Wichtigste, aber dennoch kann die Dauer bis zum vollständigen Erscheinen einer Seite im Browser den entscheidenden Ausschlag geben, ob man auf den Suchergebnisseiten vor oder hinter der Konkurrenz gelistet wird.

Google empfiehlt eine Ladezeit von maximal drei Sekunden - jede weitere Sekunde führt wahscheinlich zum Verlust von Nutzern, die sich enttäuscht abwenden und nach Alternativen suchen.

Es gibt eine große Anzahl von Faktoren, die sich auf die Ladezeit auswirken können. Nachfolgend sind einige der wichtigsten Einflussfaktoren genannt:

  • Das verwendete Content Management System (CMS). Je nachdem, ob man WordPress, Joomla, Drupal oder andere Systeme verwendet, kann die Übertragung der Daten und der Aufbau der Seiten unterschiedlich lange dauern. Im Gegensatz zu Webseiten, die aus reinem HTML bestehen, basieren CMS meist auf der Programmiersprache PHP. Bei der Abfrage einer Webseite wird zunächst das darzustellende HTML dynamisch erzeugt, wobei neben PHP auch der Zugriff auf eine Datenbank stattfindet. Dieser Prozess dauert natürlich länger, als wenn einfach das fertige HTML einer statischen Seite übertragen und angezeigt werden muss.
  • Die genutzten Erweiterungen: Werden Plugins für ein CMS genutzt wie zum Beispiel für ein Forum, eine Slideshow oder für Kommentare, müssen zusätzliche Daten übertragen werden. Außerdem dauert die Berechnung der Seiten entsprechend länger. Daher sollte man kritisch prüfen und hinterfragen, ob alle eingesetzten Erweiterungen auch tatsächlich notwendig sind.
  • Caching und Komprimierung: Das Cachen von Daten im Browser des Nutzers sorgt dafür, dass bestimmte Dateien wie Bilder, JavaScript und CSS nur einmal übertragen werden müssen. Beim nächsten Besuch der Webseite greift der Browser dann auf den lokalen Speicher zu, was Zeit spart. Die Komprimierung findet vor der Datenübertragung statt. Auf dem Rechner des Nutzers werden die Daten dann wieder entpackt, das zu übertragene Datenvolumen ist deshalb geringer.
  • Einsatz eines Content Delivery Networks (CDN): Bei einem CDN handelt es sich um ein Netz geographisch verteilter Server. Greift ein Nutzer auf eine Webseite zu, die an ein CDN angebunden ist, erfolgt die Abfrage nicht auf einen festen Server, sondern auf den Server, der am schnellsten antworten kann. Dazu kommt, dass die Server in einem CDN bestimmte Daten im Cache speichern und sie auf diese Weise noch schneller ausliefern können. CDNs werden von vielen Hostern angeboten und können zu bestehenden Paketen hinzugebucht werden - oftmals sogar ohne Aufpreis.
  • Bilder, Videos und andere Medien: Wenn große Bilder, hochauflösende Videos oder auch Audiodateien auf einer Webseite geladen werden müssen, kann das ebenfalls zu Lasten der Ladezeit gehen. Daher sollten zum Beispiel eingebundene Bilder immer auf Optimierungspotentiale geprüft werden: Kann die Dateigröße reduziert werden? Dazu gibt es passende Werkzeuge wie zum Beispiel Tiny PNG, JPEG Optimizer oder Compress.photos. Videos müssen nicht unbedingt auf dem eigenen Server laufen, sondern können beispielsweise auch auf YouTube hochgeladen werden. Von dort kann man die Videos per iFrame einbinden.
  • Server: Hier gibt es besonders großes Optimierungspotential. Ein kleines Hostingpaket mit einem Server, den man sich mit vielen anderen Webseiten teilen muss, ist selbstverständlich weniger leistungsfähig als ein eigener Server oder gar ein verteiltes System mehrerer Server, die mit Hilfe eines Loadbalancers angesteuert werden. Gerade bei Webseiten mit einem hohen Besucheraufkommen lohnt sich die Überlegung, etwas mehr Geld in die Infrastruktur zu investieren.

 

HTTPS

Die sichere Übertragung von Daten im Netz ist heute wichtiger denn je. Insbesondere dann, wenn sensitive Nutzerdaten beteiligt sind, sollte die Übertragung verschlüsselt sein. Das gilt in beide Richtungen, also sowohl vom Client zum Server als auch umgekehrt.

Die einfachste Methode zur Verschlüsselung bietet der Einsatz der Transport Layer Security (TLS). Man erkennt Webseiten mit dieser Technik am "HTTPS" in den URLs. Voraussetzung ist ein entsprechendes Server-Zertifikat. Die meisten Hosting-Anbieter haben TLS bzw. HTTPS standardmäßig im Programm, oftmals sogar ohne Mehrkosten.

Google honoriert das, denn schon lange propagiert das Unternehmen die Sicherheit vom Daten im Netz. Webseiten, die HTTPS einsetzen, können in Form besserer Rankings profitieren.

Doch nicht nur die Rankings sprechen für HTTPS: Auch moderne Browser wie Firefox oder Chrome unterstützen den Trend, indem unverschlüsselte Seiten als unsicher markiert werden. Das kann die Seitenbesucher abschrecken.

 

Google Chrome: Hinweis auf unsichere Seite

 

Responsive Design

Unter Responsive Design versteht man eine Technik, die dafür sorgt, dass Webseiten sowohl auf Desktop-Rechnern, auf dem Laptop, auf Smartphones und auf Tablets optimal dargestellt werden. Das wird erreicht, indem bestimmte Elemente der Webseite ein- oder ausgeblendet, verschoben oder skaliert werden. Dadurch sind Texte auch auf kleineren Bildschirmen lesbar, Links und Buttons sind groß genug, dass sie auch mit dem Finger bedienbar sind, und Bilder passen sich dem verfügbaren Platz an.

Ein großer Vorteil von Webseiten mit Responsive Design ist, dass nur eine Variante gepflegt werden muss - im Gegensatz zu Webseiten, die über eine gesonderte Mobilvariante verfügen.

Besonders im Hinblick auf den anstehenden Wechsel auf einen neuen Google-Index ist es zu empfehlen, Webseiten auf Responsive Design umzustellen, denn zukünftig werden mobile Rankingfaktoren im Vordergrund stehen (statt wie bisher Signale der Desktop-Version).

Doch bereits heute belohnt Google Webseiten, die mobilfreundlich sind, mit besseren Rankings. Ob Google eine Webseite als mobilfreundlich einstuft oder nicht, kann man mit dem eigens dafür eingerichteten Mobile-Friendly-Test ausprobieren.

Für die meisten Content Management Systeme gibt es heute Templates, die den Anforderungen von Responsive Design entsprechen. Der Aufwand für die Umstellung hält sich also in Grenzen.


Crawlbarkeit und Indexierbarkeit

Damit eine Webseite in den Google-Ergebnissen auftauchen kann, muss Google sie crawlen und indexieren können. Beim Crawlen besucht ein sogenannter Crawler, der Googlebot, die Seiten und erfasst die dort vorhandenen Inhalte und Links. Die Links werden dann für das Crawlen weiterer Seiten genutzt. Aus diesem Grund ist eine optimierte interne Linkstruktur so wichtig.

 

Wie funktioniert Google

 

Das Indexieren ist ein darauf folgender Prozess: Google schreibt die Daten, die beim Crawlen gefunden werden, nach einer ersten Aufarbeitung in eine Art Datenbank, den Google-Index. Dieser enthält zahlreiche Felder und Kriterien, die später darüber entscheiden, ob und auf welcher Position eine Seite in den Suchergebnissen erscheinen kann.

Beim Crawlen und Indexieren kann eine Menge schief gehen - daher müssen alle Voraussetzungen so geschaffen sein, dass es möglichst wenige Barrieren für Google gibt.

 

robots.txt

Die robots.txt-Datei enthält Angaben dazu, welche Seiten und welche Ressourcen einer Webseite von den verschiedenen Crawlern abgerufen werden dürfen. Im Grunde kann man sich eine robots.txt als einfache Liste von "Du darfst"- und "Du darfst nicht"-Anweisungen vorstellen. Alles, was mit "allow" gekennzeichnet ist, darf abgerufen werden - alles, was mit "disallow" gekennzeichnet ist, ist verboten. Inhalte, die weder mit "allow" oder mit "disallow" markiert sind, dürfen ebenfalls gecrawlt werden.

Bei der Bearbeitung der robots.txt ist es wichtig, darauf zu achten, dass keine Seiten aus Versehen gesperrt werden, die eigentlich im Google-Index landen sollen. Eine Anweisung wie

disallow: /

sorgt zum Beispiel dafür, dass alle Seiten gesperrt sind.

Ebenfalls sollte man prüfen, ob alle wichtigen Ressourcen wie Bild-Ordner, JavaScript- und CSS-Verzeichnisse für die Crawler zugängig sind, denn sie werden benötigt, um eine Seite zu rendern (zu berechnen). Google ist dazu schon seit längerer Zeit in der Lage.

In der Google Search Console gibt es mehrere Möglichkeiten, dies zu prüfen: Einmal im Bereich "Crawling" unter dem Punkt "robots.txt-Tester" und im Bereich "Google-Index" unter dem Punkt "Blockierte Ressourcen".

 

Google Search Console: robots.txt-tester

 

Meta-Robots

Die Meta-Robots-Anweisung steuert - anders also die robots.txt-Datei - in erster Linie nicht das Crawlen, sondern das Indexieren. Man findet die Meta-Robots im HTML-Quellcode innerhalb des <head>-Bereichs. Sie haben die folgende Form:

<meta name="robots" content="index | noindex, follow | nofollow"/>

Der erste Teil, also das "index" bzw. "noindex" teilt Google mit, ob die betreffende Seite indexiert werden soll oder nicht. Der zweite Teil, also das "follow" oder "nofollow" ist eine Anweisung, die festlegt, ob der Googlebot den auf der Seite gefundenen Links folgen soll oder nicht.

Wenn es keinen zwingenden Grund dafür gibt, eine Seite aus dem Google-Index herauszuhalten, sollte man stets "index, follow" als Wert setzen. Es kann allerdings Fälle geben, in denen es angebracht sein kann, auf "noindex" zu wechseln, etwa wenn es um Seiten geht, die für die Nutzer der Suchmaschine keinen Mehrwert bieten würden.

 

Interne Verlinkung

Wie weiter oben bereits angedeutet, kann eine gut strukturierte interne Verlinkung das Crawlen für Google erleichtern. Dabei sollte man immer von einer hierarchischen Struktur ausgehen, bei der es wenige Seiten auf der oberen Ebene und mehr Seiten auf den weiter unten angesiedelten Ebenen gibt. Beispiel: Eine Webseite verfügt über eine Startseite, von der aus man auf verschiedene Kategorien gelangt. Jede dieser Kategorien verfügt wiederum über mehrere Unterkategorien, so dass man auf dieser Ebene bereits ein Vielfaches an Seiten hat. Jede Unterkategorie besitzt eine bestimmte Anzahl von Unterseiten bzw. Landing Pages.

Durch die konsequente Verlinkung der Kategorien, Unterkategorien und Landing Pages verbessern sich die Chancen, dass Google alle Seiten erfassen und crawlen kann. Auch für die Seitenbsucher schafft eine logisch durchdachte interne Verlinkung einen besseren Überblick.

Ergänzen kann man dieses Konstrukt noch durch Querverlinkungen innerhalb einer Ebene - etwa zwischen themenverwandten Landing Pages.

 

Idealtypische Webseitenhierarchie

 

XML-Sitemaps

Neben einer optimierten internen Verlinkung können XML-Sitemaps eine weitere Hilfe für den Googlebot beim Crawlen sein. In diesen Dateien sind alle wichtigen URLs aufgeführt, so dass Google sie einfach nach und nach aufrufen kann.

XML-Sitemaps sollten immer auf dem aktuellen Stand sein. Wenn Seiten wegfallen, geändert oder neu angelegt werden, sollte sich dies gleich in der XML-Sitemap niederschlagen.

Es gibt übrigens verschiedene Arten von XML-Sitemaps, die man bei Google einreichen kann, unter anderem auch für Bilder, Videos oder News. Letztere sind solchen Webseiten vorbehalten, die in Googles Nachrichtensuche Google News gelistet sind.

Die meisten Content Management Systeme bieten entweder standardmäßig oder per Erweiterung die Möglichkeit, XML-Sitemaps zu erstellen.

 

Crawl-Budget

Viel diskutiert und immer wieder einen Beitrag wert ist das sogenannte Crawl-Budget, das eine Webseite bei Google hat. Im Grunde versteht man darunter die Zahl der Seiten, die der Googlebot innerhalb einer bestimmten Zeitspanne abrufen kann oder will.

Man kann das Crawl-Budget nicht direkt beeinflussen, aber Maßnahmen dafür treffen, dass Google mehr Seiten abruft. Wichtig dazu ist vor allem eine kurze Antwortzeit des Servers, denn sobald Google erkennt, dass ein Server Probleme mit der Beantwortung von Anfragen hat, wird die Crawl-Rate reduziert.

Weitere Faktoren, die das Crawl-Budget beeinflussen:

  • Facettierte Navigation und Session-IDs in den URLs: Eine facettierte Navigation findet man zum Beispiel in Online-Shops, wo es möglich ist, für Produkte verschiedene Varianten (Größe, Farbe etc) aufzurufen. Dabei sind die Unterschiede zwischen den einzelnen Produktseiten sehr gering.
  • Soft Errors: Das sind Seiten, die sich abrufen lassen, aber nicht die gewünschten Inhalte liefern. Dennoch geben sie den HTTP-Status 200 für "ok" zurück.
  • Gehackte Seiten: Manipulierte und gehackte Seiten führen folgerichtig zu einer Reduzierung von Googles Crawl-Aktivitäten.
  • Duplicate Content: Wenn Google erkennt, dass auf einer Webseite Inhalte mehrfach vorkommen, kann dies ebenfalls zu einer Reduzierung des Crawlings führen.
  • Minderwertige Inhalte und Spam: siehe gehackte Seiten.
  • Infinite Spaces: Sind auf einer Webseite viele URLs mit wenig Mehrwert zu finden, wird Google in Form von reduziertem Crawling quittieren.

 

Sonderthema: Crawlen von JavaScript, AJAX und dynamischen Webseiten

Besondere Herausforderungen ergeben sich, wenn dynamische Webseiten und sogenannte Single Page Application gecrawlt werden sollen. Anders als herkömmliche Webseiten verhalten sich diese eher wie eine App und bestehen im Grunde nur aus einer einzigen Seite, die sich je nach Nutzerinteraktion unterschiedlich präsentiert.

Lange Zeit konnte Google mit solchen Inhalten nichts anfangen. Daher war es nötig, für die Suchmaschinen einen sogenannten "Snapshot" bereitzustellen - also ein statisches Abbild der verschiedenen Zustände, welches dann jeweils gecrawlt werden konnte.

Inzwischen kann Google JavaScript jedoch interpretieren und ausführen. Details dazu sind in diesem Artikel von Artur Kosch zu finden.

Um zu testen, wie sich eine JavaScript-basierte Webseite für den Googlebot präsentiert, kann man auf die Funktion "Abruf wie durch Google" in der Google Search Console zurückgreifen.

Zu empfehlen ist auch das SEO-Tool "Screaming Frog" - dieses beherrscht zur Zeit als eines der wenigen Werkzeuge das Interpretieren und Ausführen von JavaScript.


Redirects

Redirects oder Weiterleitungen sind ein Dauerthema für SEOs. Wann werden welche Redirects benötigt, wann lässt man sie besser weg? Ein Redirect sorgt dafür, dass beim Aufruf einer URL wie zum Beispiel www.example.com/seite1.html ein Sprung auf eine andere URL stattfindet, zum Beispiel auf www.example.com/seite2.html.

Redirects sind wichtig, um Aufrufe alter Seiten oder URLs nicht zu verlieren und zum neuen Ziel zu senden. Auch bestehende Backlinks können durch den Einsatz von Redirects bewahrt werden.

Dabei ist man völlig frei in der Wahl des Weiterleitungsziels: Man kann auch auf eine komplett andere Domain verweisen.

Nachfolgend ist eine Übersicht der wichtigsten Arten von Redirects aufgeführt:

  • 301-Redirect: Dabei handelt es sich um eine dauerhafte Weiterleitung
  • 302-Redirect: temporäre Weiterleitung
  • 303-Redirect: "see other" - Wenn diese Antwort nach einem Aufruf erfolgt, wird der anfragende Client auf eine andere Ressource ("URI") verwiesen.
  • 304-Redirect: "not modified" - Eine Übertragung ist nicht notwendig, weil sich die angefragte Ressource seit dem letzten Aufruf nicht geändert hat.
  • 305-Redirect: "use proxy" - Die angeforderte Ressource ist nur über einen Proxy verfügbar.
  • 307-Redirect: "temporary" - ähnlich wie 302-Redirect

Für dauerhafte Änderungen, also zum Beispiel dann, wenn eine Webseite auf eine neue Domain umzieht, sollten 301-Redirects verwendet werden.


Vermeidung von Broken Links

Bei Broken Links handelt es sich um Links, die auf nicht mehr bestehende Seiten bzw. URLs zeigen. Dabei kann es sich um interne oder externe Broken Links handeln.

Für die Besucher einer Webseite und die Suchmaschinen-Crawler sind Broken Links unschön, weil sie in eine Sackgasse führen. Aus diesem Grund sollte man die eigene Webseite regelmäßig daraufhin überprüfen, ob alle eingebundenen Links noch funktionieren. Falls Broken Links gefunden werden, sollte man diese ändern oder entfernen.

 

Canonical Tags, Duplicate Content

Canonical Tags und Duplicate Content stehen in einem engen Verhältnis zueinander. Duplicate Content entsteht, wenn eine Seite unter mehreren URLs verfügbar ist, zum Beispiel mit und ohne "www". Das kann dazu führen, dass Google mehrere Varianten der Seite mit verschiedenen URLs indexiert. Somit würden diese verschiedenen Varianten miteinander in Konkurrenz um die Rankings auf den Suchergebnsseiten treten, was sich negativ auswirken kann.

Als Lösung für das Problem mit Duplicate Content bieten sich die sogenannten Canonicals an: Mit ihnen lässt sich definieren, welche URL Google verwenden soll, wenn eine Seite unter verschiedenen URLs erreichbar ist. Dazu muss in jede der betroffenen Seiten ein Tag wie dieses eingebunden werden:

<link rel="canonical" href="https://example.com/hauptseite">

Google wird dann jeweils nur diese eine URL indexieren.

 

URLs

URLs sollten möglichst ohne zusätzliche Parameter verwendet werden, weil dadurch die Möglichkeit von Duplicate Content entsteht (siehe voriger Abschnitt). Leerzeichen und Unterstriche in URLs sind nach Möglichkeit zu vermeiden. Außerdem sollten URLs nicht zu lang sein, weil dadurch die Weiterverarbeitung und das Teilen der URLs – beispielsweise in sozialen Netzwerken – erschwert wird.

Wichtig: Ziel-Keywords, für die eine Seite ranken soll, sollten in der URL der Seite vorkommen. Das hat zwar nur eine geringe Auswirkung auf die Rankings, kann im Zweifelsfall aber dennoch von Vorteil sein. Der Aufbau der URLs sollte der Seitenhierarchie entsprechen, also die einzelnen Ebenen der Webseite abbilden.

Beispiel: www.example.com/kategorie/unterkategorie/landing-page.html

 

Konfiguration des Servers

Technisch sicherlich am anspruchsvollsten und nur für technisch Fortgeschrittene zu empfehlen ist die manuelle Konfiguration des Servers, auf dem die Webseite betrieben wird.

Je nachdem, welches Hosting-Paket man gebucht hat, gibt es hier unterschiedliche Möglichkeiten. Diejenigen mit einem eigenen Server sind dabei am flexibelsten und können frei entscheiden, welche Software sie installieren. Wichtig sind das genutzte Betriebssystem auf dem Server (Windows oder Linux), die genutzte PHP-Version und die eingesetzte Datenbank.

Weitere Konfigurationsmöglichkeiten gibt es bezüglich des Cachings von Inhalten wie Bildern, JavaScript und CSS sowie der Wahl, ob die Daten vor der Übertragung komprimiert werden sollen oder nicht.

Weniger flexibel sind Hosting-Pakete, bei denen man sich einen Server mit vielen anderen Seiten teilen muss und daher weniger Einflussmöglichkeiten auf die Konfiguration hat. Dafür ist aber auch der Pflegeaufwand geringer. Für kleinere Webseiten reichen solche Pakete meist aus.

Eine Zwischenlösung stellen die "Managed Server"-Pakete dar: Hier sorgt der Hoster für bestimmte Grundaufgaben wie Updates bestehender Software. Dennoch hat der Kunde viele Möglichkeiten, das System an die eigenen Bedürfnisse anzupassen.

 

Fazit

Technische SEO ist ein Aufgabengebiet, das für den möglichst reibungslosen, nutzerfreundlichen und sicheren Betrieb von Webseiten sorgen soll. Mit SEO haben diese Tätigkeiten nur zum Teil zu tun, denn es geht hier in erster Linie um die Nutzer. Allerdings werden Bemühungen wie der Einsatz von HTTPS und kurze Ladezeiten von Google mit vergleichsweise besseren Rankings belohnt.

 

Titelbild © maciek905 - Fotolia.com

 


Christian Kunz

Von Christian Kunz

SEO-Experte. Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier.



Anzeige von Clixado

Artikelveröffentlichungen auf starken Magazinen und Blogs

Wir kooperieren mit unzähligen Verlagen und Bloggern und können daher auf über 4000 Blogs zu fast allen Themengebieten Artikelplätze anbieten:

    - Nachhaltiger Linkaufbau, kein SEO-Netzwerk
    - Hohe Sichtbarkeitswerte, keine expired Domains
    - Einmalzahlung, keine Vertragsbindung

Für jede Artikelveröffentlichung erstellen wir hochwertigen Content mit mindestens 400 Wörtern und publizieren den Artikel mit einem DoFollow-Bachlink zu deiner Seite auf einem Magazin oder Blog deiner Wahl.

Frag uns unverbindlich nach Beispielen






Verwandte Beiträge

SEO selber machen: Local SEO

Local SEO wird für die Unternehmen immer wichtiger, denn die Konkurrenz steigt, und durch den wachsenden Anteil mobiler Nutzer nimmt auch der Anteil von Suchanfragen mit lokalem Bezug zu. Local SEO...

SEO-Newsletter bestellen

Mit dem SEO-Newsletter erhältst Du einmal pro Monat eine Übersicht der wichtigsten SEO-Meldungen auf SEO Südwest sowie Ankündigungen wichtiger SEO-Veranstaltungen. Zum Abonnieren des SEO-Newsletters ist die Einwilligung in die Datenschutzhinweise erforderlich. Zum Bestellen genügt die Angabe der E-Mail-Adresse. Per Klick auf den entsprechenden Button unten kann das Abonnement jederzeit gekündigt werden.
Ich stimme den Nutzungsbedingungen zu

SEO-Checkliste

SEO-Checkliste

 

Anzeigen


SEO-Beratung

Suchmaschinenoptimierung und SEO-Beratung für Karlsruhe, Baden und die Pfalz

 

06340/351-943

 

info(at)seo-suedwest.de

SEO-Schulung 2019

SEO-Schulung

Ganztägige Schulung "SEO-Grundlagen". Jetzt anmelden

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO-Kalender 2018

SEO-Kalender 2018

 

Onsite-Optimierung

Onsite-Optimierung

 

SEO- und Suchmaschinenblogs

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

SEO selber machen

SEO selber machen

Sprecher auf

Auszeichnungen

iBusiness Top-100-Liste SEO-Dienstleister

SEO Südwest: Platz 5 bei den SEO-Wahlen 2014 zum besten deutschen SEO-Blog

 

SEO-united.de Tipp 12/15

 Eine Auswahl zufriedener Kunden

Rebel - Bad Küche Raum
Schöne Haare Karlsruhe
kr3m
feel-perfect.eu - Die Nährstoffexperten border=
Flintec IT GmbH
ESM Academy
Ringladen

Verbinden und Informationen zu SEO Südwest

Impressum und Datenschutz

Social Networks und RSS-Feed