ChatGPT: Das Modell GPT-5.2 nutzt Grokipedia als Quelle
ChatGPT nutzt in Kombination mit GPT-5.2 Grokipedia als Quelle. Ein potenzielles Risiko ist Desinformation.
Die Qualität der Antworten, die KI-Systeme wie ChatGPT liefern, hängt stark von den genutzten Quellen ab. Dabei können Quellen auf verschiedene Weisen in die Antworten einfließen: beim Trainieren der Modelle und beim Live-Abruf per RAG (Retrieval-Augmented Generation).
Bei ChatGPT sind nicht alle genutzten Quellen als vertrauenswürdig einzustufen. Zumindest sind Zweifel angebracht. Das zeigen Tests, die vom Guardian durchgeführt wurden. Diese ergaben, dass GPT bei über einem Dutzend verschiedener Anfragen neunmal Grokipedia zitierte. Zu den betroffenen Themenbereichen gehörten unter anderem iranische Verbindungen und Holocaustleugner.
SEO-Beratung: Wir sind Ihre Experten
Wir bringen gemeinsam Ihre Website nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.
Interessanterweise zitierte ChatGPT Grokipedia nicht, wenn es direkt aufgefordert wurde, bekannte Falschinformationen über den Sturm auf das US-Kapitol am 6. Januar, Voreingenommenheit der Medien oder die HIV/Aids-Epidemie zu wiederholen – Bereiche, in denen Grokipedia dafür kritisiert wurde, Unwahrheiten zu verbreiten.
Konkrete Beispiele für die Verwendung von Grokipedia-Inhalten durch GPT-5.2 umfassen:
- Politische Strukturen im Iran
- Behauptungen über Verbindungen zwischen dem Unternehmen MTN-Irancell und der iranischen Führung
- Die Biografie des britischen Historikers Sir Richard Evans, insbesondere im Zusammenhang mit seiner Rolle als Sachverständiger im Verleumdungsprozess gegen den Holocaustleugner David Irving
Hintergrund zu Grokipedia
Grokipedia ist eine KI-generierte Online-Enzyklopädie, die als Konkurrenz zu Wikipedia gedacht ist. Im Gegensatz zu Wikipedia ist eine Bearbeitung durch menschliche Redakteure nicht vorgesehen. Stattdessen schreibt ein KI-Modell die Inhalte und reagiert auf Änderungsanfragen.
Die Plattform steht in der Kritik, rechtsgerichtete Narrative zu verbreiten. Auf eine Bitte um Stellungnahme durch The Guardian reagierte ein Sprecher von xAI, dem Eigentümer von Grokipedia, lediglich mit dem Satz: „Legacy media lies“.
Das Phänomen beschränkt sich nicht auf OpenAI; auch Claude von Anthropic hat Grokipedia zu verschiedenen Themen wie Erdölproduktion und schottischen Ales zitiert. Ein Sprecher von OpenAI betonte gegenüber The Guardian, dass man Sicherheitsfilter anwende, um Links mit hohem Schadensrisiko zu reduzieren, und dass ChatGPT durch Zitate klar aufzeige, welche Quellen genutzt wurden.
Risiko der Desinformation
Allerdings besteht ein hohes Risiko der Desinformation, wenn Quellen wie Grokipedia ungeprüft für die Formulierung von Antworten genutzt werden. Die Desinformationsforscherin Nina Jankowicz warnt, dass Grokipedia-Einträge oft auf unzuverlässigen Quellen oder gezielter Desinformation basieren. Wenn große Sprachmodelle wie ChatGPT diese Quellen zitieren, könnte dies deren Glaubwürdigkeit in den Augen der Leser ungerechtfertigt erhöhen, weil Nutzer davon ausgehen könnten, die Quellen seien überprüft worden. Experten sehen die Gefahr, dass böswillige Akteure KI-Modelle gezielt mit Lügen füttern, um Desinformation zu verbreiten, das sogenannte LLM Grooming.
Einmal in einen KI-Chatbot eingedrungene falsche Informationen sind schwer zu entfernen, selbst dann, wenn die ursprüngliche Nachrichtenquelle gelöscht wurde.

























