Google erklärt, wie ein Canonical-Link per JavaScript eingefügt werden kann
Obwohl es nicht empfohlen ist, können Canonical-Links auch per JavaScript in Webseiten eingefügt werden. Google rät zwar davon ab, erklärt aber dennoch, wie es funktioniert.
SEO-Beratung: Wir sind Ihre Experten
Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.
Google erklärt, warum die Bildersuche manchmal weniger relevante Ergebnisse liefert
Die Qualität der Ergebnisse in der Google Bildersuche ist für manche Suchanfragen geringer, als dies in der Websuche der Fall ist. Warum die Bildersuche manchmal weniger relevante Ergebnisse liefert, hat jetzt Danny Sullivan von Google erklärt.
Twitter-Links sind jetzt wieder 'nofollow'
Links von Twitter sind jetzt wieder mit dem 'nofollow'-Attribut versehen. Vorübergehend waren Twitter-Links ohne 'nofollow' gesetzt worden.
Lokale Suche auf Grundlage von Reviews: Google testet 'Find places through reviews'
Google testet eine neue Funktion in der Suche, die Reviews aus Google Business Profiles in einem Karussell anzeigt. Dabei scheinen die Keywords in den Reviews eine wichtige Rolle zu spielen.
Google: Indexierungstool in Google Search Console nicht zum schnelleren Deindexieren geeignet
Das Tool zur Anfrage einer Indexierung in der Google Search Console ist nicht dafür gedacht, Seiten schneller aus dem Index zu entfernen.
Google: Für gerätespezifische Weiterleitungen am besten 302-Redirects verwenden
Für Weiterleitungen auf gerätespezifische URLs wie zum Beispiel für mobile Seiten sollten laut Google möglichst 302-Redirects verwendet werden.
Crawl-Limit von 15 MB: Google beantwortet die wichtigsten Fragen
Nachdem es rund um Googles Crawl-Limit von 15 MB für Webseiten viele Fragen und Missverständnisse gab, beantwortet Gary Illyes von Google jetzt die wichtigsten Fragen dazu.
Anzeichen für größeres Google Update seit dem 27. Juni
Erneut oder immer noch scheint Google ein größeres Update durchzuführen. Seit Mitte des Monats ist die Dynamik auf den Suchergebnisseiten von Google besonders groß.
Google: Begrenzung des Crawlens auf 15 MB wird häufig missverstanden
Die Nachricht, dass Google nur die ersten 15 MB des HTMLs von Webseiten crawlt, hat zu Missverständnissen geführt und zeigt, dass Aussagen von Google oftmals nicht oder nicht vollständig verstanden werden.
Google ändert Dokumentation zu Crawling und robots.txt
Google hat die Dokumentation zum Crawl-Statusreport aktualisiert. Demnach stellt Google bei nicht verfügbarer robots.txt nach 30 Tagen das Crawlen ein, wenn die Homepage einer Website nicht erreichbar ist.
Weitere Beiträge
- Google hat FAQ Rich Results jetzt endgültig eingestellt
- AI Citations: Analyse zeigt 22 wichtige Faktoren
- Bericht: Google könnte Maßnahmen gegen Site Reputation Abuse in Europa einstellen
- Der Unterschied zwischen Ranking und Grounding: Bing erklärt
- Google verschafft Websites mehr Sichtbarkeit in der KI-Suche
- Google Chrome installiert ungefragt ein 4-GB-KI-Modell auf dem Rechner
- ChatGPT Ads: OpenAI stellt neue Landing Page zur Verfügung
- Google: KI-Suche nutzt eigene Plattform, aber auch Funktionen der klassischen Suche
- Google empfiehlt, wie man Websites für KI-Agenten erstellt
- Google behebt Probleme mit Daten zu Impressionen, alte Daten werden aber nicht korrigiert
- Google: Preferred Sources jetzt für alle Sprachen verfügbar
- Google erhöht wegen KI die Anforderungen an Inhalte für eine Indexierung
- Google: Zahl der Suchanfragen erreicht Allzeithoch
- KI-Inhalte im Web: neue Analyse widerlegt viele Befürchtungen
- Google warnt vor Indirect Prompt Injection
- Back Button Hijacking: Google versendet Warnungen an Websitebetreiber
- Mehr KI-Daten: Bing Webmaster Tools zeigen zukünftig Citation Share
- Google for Jobs: Search Console zeigt wieder Impressionen und Klicks an
- 17 Inhalte, die im Google-Zero-Click-Zeitalter weiter Klicks bringen
- IBM stellt GEO-Playbook mit 12 Punkten vor