Yelp beklagt Traffic-Klau durch Google - doch zu Recht?
Das Review-Portal Yelp hat eine Studie durchgeführt, nach der Google bis zu 20 Prozent des Traffics für sich beansprucht, der eigentlich zu Yelp hätte fließen müssen. Doch bei genauerem Hinsehen erscheinen die Ergebnisse mehr als fraglich.
SEO-Beratung: Wir sind Ihre Experten
Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.
Proteste: Neues Startup verhökert Tischreservierungen im Restaurant
Einen Ansturm wütender Reaktionen erntete der Urheber eines neuen Startups mit dem Namen ReservationHop. Die Idee: Tische in begehrten Restaurants auf falschen Namen reservieren und dann gegen Höchstgebot verkaufen. Nach heftigen Reaktionen gab es eine Anpassung des Geschäftsmodells.
Experiment: Bis zu 60 Prozent des direkten Traffics stammen eigentlich aus der Suche
Für Webseitenbetreiber ist es wichtig zu wissen, woher ihre Besucher stammen. Um die richtigen Maßnahmen zur Trafficsteigerung ergreifen zu können, müssen die Zahlen aber einigermaßen verlässlich sein. Ein aktuelles Experiment bei Grouponzeigt jetzt: Viele Besuche, die als "direkt" angegeben werden, stammen eigentlich aus der Suche.
DuckDuckGo zeigt jetzt regionalisierte Suchergebnisse
Die Suchmaschine DuckDuckGo überrascht immer wieder mit neuen Funktionen. Die neueste Erweiterung: Ein Schalter ermöglicht jetzt die Auswahl regionalisierter Suchergebnisse.
Google investiert in eigenen Zustelldienst
Google will seinen Zustelldienst Shopping Express stark ausbauen und investiert nach Medienberichten um die 500 Millionen US-Dollar. Damit greift der Suchmaschinenkonzern auch Amazon und dessen Prime-Dienst an - auch wenn sich die Geschäftsmodelle unterscheiden.
Kartellverfahren gegen Google: Konkurrenten drohen mit Klagen
Es geht weiter im Streit um Google: Konkurrenten des Suchmaschinen-Riesen haben mit Klagen gedroht, falls es beim jetzigen Stand der Vereinbarungen zwischen Google und der EU bleiben sollte.
20 Jahre robots.txt - 5 verhängnisvolle Fehler
20 Jahre gibt es nun schon die robots.txt. Ursprünglich war sie zum Sparen von Bandbreite gedacht, doch heute setzen sie viele auch für die Steuerung der Indexierung ein. Leider werden dabei oft schwerwiegende Fehler gemacht.
Facebook gesteht falsche Reichweitenangabe für Posts ein
Facebook hat eingeräumt, für den Zeitraum zwischen dem 30. Mai und dem 30. Juni teilweise falsche Reichweitenangaben für Posts angezeigt zu haben.
Verbreitetes WordPress-Plugin für den Newsletter-Versand: Webseiten können gehackt werden
Ein verbreitetes WordPress-Plugin für den Versand von Newslettern kann als Einfallstor für Hacker genutzt werden. Wer auf Nummer Sicher gehen will, muss das gerade veröffentlichte Update installieren.
Facebook-Experiment: Manipulierte Nachrichten könnten juristisches Nachspiel haben
Die britische Datenschutzbehörde will gegen Facebook wegen der Manipulierung von Nachrichtenströmen ermitteln, die das Netzwerk für ein Experiment vorgenommen hatte. Ein entsprechender Hinweis in den Geschäftsbedingungen, der das Vorgehen legitimiert hätte, war erst nachträglich eingefügt worden.
Weitere Beiträge
- 75 Prozent der Websites, die KI-Bots blockieren, tauchen dennoch in KI-Zitaten auf
- Meinung: Voll automatisierter KI-Content wird zur Normalität
- Google Search Console: Logging-Probleme können falsche Daten zu Impressionen verursachen
- Inhalte aktuell halten und veraltete Inhalte löschen: wichtig für die Suche und KI, sagt Fabrice Canel von Bing
- AI Brand Authority Index: neue Datenbank für Sichtbarkeit von Marken in Google Gemini
- Crawlen: Google erklärt das 2-MB-Limit und das 15-MB-Limit
- Reddit Pro steht jetzt allen Publishern offen
- SEO: John Müller rät zu Konzentration auf wenige Maßnahmen
- ChatGPT Location Sharing: Teilen des Standorts ermöglicht jetzt präzisere Ergebnisse
- Google rollt das March 2026 Core Update aus
- Automatisierter KI-Traffic ist im Jahr 2025 achtmal so stark gewachsen wie menschlicher Traffic
- Google Gemini zeigt Links zu Quellen ohne Funktion
- Google Spam Update vom März ist nach nur einem Tag beendet
- Google rollt das March 2026 Spam Update aus
- 'Google-Agent': neuer User Agent von Google für automatische Aktionen auf Webseiten
- Bing Webmaster Tools zeigen jetzt Grounding Queries auf Seitenebene
- Google crawlt 404 URLs länger: Zeichen dafür, dass Google mehr Inhalte von der Website will
- Google ändert jetzt Titles in der Suche per KI. Verfälschungen möglich
- Query Fanouts der KI-Modelle unterscheiden sich deutlich
- EEAT ist auch für LLMs und die KI-Suche wichtig - das zeigt ein aktuelles Beispiel