12. März 2026 Andrej Simon
Bild: shutterstock.com
Eine Studie zeigt: Herkunft, Trainingsdaten und politische Kontrolle prägen die Antworten von Chatbots stärker als überprüfbare Fakten.
KI-Bots geben auf dieselbe Frage oft falsche Antworten. Und je überzeugender sie klingen, desto gefährlicher wird's.
Die Verlockung ist groß: Statt mühsam zu recherchieren, tippt man eine komplexe Frage zu Ukraine, Taiwan oder Nahost in einen KI-Chatbot – und erhält binnen Sekunden eine ausführliche, selbstsicher formulierte Antwort. Immer mehr Nutzer greifen auf diese Weise auf ChatGPT, DeepSeek oder andere Systeme zurück, um politisches Wissen zu erwerben.
Doch sind diese flüssig klingenden Antworten auch verlässlich? Eine aktuelle Studie des Forscherteams von Forschungsteam von Action for Democratic Society/Hibrid.info (Überblick hier) kommt zu einem beunruhigenden Ergebnis: Dieselbe geopolitische Frage kann je nach genutztem KI-Chatbot zu völlig unterschiedlichen "Realitäten" führen.
Drei Bots, drei Wahrheiten
Forscher verglichen die Antworten der Chatbots ChatGPT (USA), DeepSeek (China) und Alice (Russland) auf identische Fragen zu internationalen Konflikten. Das Ergebnis: Die Systeme lieferten nicht nur unterschiedliche Perspektiven, sondern teilweise widersprüchliche Fakten.
Besonders drastisch zeigte sich dies bei einer simplen Frage: Welches Land erkannte den Kosovo als erstes an?
Alle drei getesteten Bots gaben laut Studie eine falsche Antwort. Selbst bei überprüfbaren historischen Fakten versagten die Systeme, die eigentlich auf riesige Datenmengen zugreifen können.
Der geografische Standort des Nutzers beeinflusst die Antworten zusätzlich. Der russische Bot Alice etwa antwortete in Serbien auf Englisch gestellte Fragen teilweise auf Russisch oder verweigerte bei bestimmten Themen komplett die Auskunft, berichten die Forscher in ihrer Studie.
Keine neutralen Informationsquellen
KI-Chatbots sind keine objektiven Wissensspeicher. Ihre Antworten spiegeln die Herkunft ihrer Entwickler, die verwendeten Trainingsdaten und institutionelle Kontrollmechanismen wider. Ein US-amerikanisches System wird geopolitische Konflikte anders darstellen als ein chinesisches oder russisches.
Chinesische Modelle wie DeepSeek neigen laut einer Analyse des US-amerikanischen Thinktanks CSIS zu "falkenhaften" Empfehlungen in außenpolitischen Krisenszenarien – insbesondere wenn westliche Länder beteiligt sind.
Bei politisch sensiblen Themen weichen manche Bots gezielt aus oder verweigern die Antwort ganz. Das ist keine technische Schwäche, sondern gewollte Kontrolle durch die Betreiber.
Überzeugend klingt nicht gleich wahr
Das Kernproblem liegt im Design der Systeme selbst: KI-Sprachmodelle sind darauf optimiert, überzeugend und flüssig zu klingen, nicht zwingend darauf, geprüfte Fakten wiederzugeben. Sie generieren plausible Texte auf Basis statistischer Muster in ihren Trainingsdaten.
Als alarmierend wird herausgestellt: Methoden, die einen KI-Chatbot überzeugender machen sollen, verringern systematisch seine faktische Genauigkeit, wie die Studie zeigt. Je selbstsicherer die Formulierung, desto größer kann die Diskrepanz zur Realität sein.
Die gefährlichste Fehlinformation ist nicht die offensichtlich falsche Behauptung, sondern jene, die gerade einleuchtend genug klingt, um als "die Antwort" akzeptiert zu werden. Nutzer, die schnelle Orientierung in komplexen geopolitischen Fragen suchen, erhalten stattdessen eine von mehreren möglichen Versionen – je nachdem, welchen KI-Chatbot sie zufällig verwenden.
Die Folgerung: Wer politisches Wissen aus Chatbots bezieht, sollte sich bewusst sein, dass er keine neutrale Information erhält, sondern eine technologisch vermittelte Perspektive, die von kommerziellen und staatlichen Interessen geformt wurde.



