Die Manipulation von künstlicher Intelligenz durch gezielte Desinformation entwickelt sich zu einer ernsthaften Bedrohung für die digitale Informationslandschaft. Das russische Pravda-Netzwerk, ein umfangreiches Propagandasystem mit Sitz in Moskau, beeinflusst systematisch die Antworten westlicher KI-Chatbots mit prorussischen Narrativen, so ein Bericht von France24.
Aktuelle Untersuchungen der Organisation NewsGuard sollen gezeigt haben: Bei Tests mit zehn führenden KI-Chatbots – darunter die von Microsoft, Google, OpenAI, You.com, xAI, Anthropic, Meta, Mistral und Perplexity – wiederholten diese in mehr als 33 Prozent der Fälle Argumente aus dem Pravda-Netzwerk. Diese Form der Manipulation wird von Forschern als „LLM-Grooming“ bezeichnet – eine Methode, bei der die Trainingsdaten der Sprachmodelle gezielt mit Fehlinformationen geflutet werden.
Allein im Jahr 2024 wurden 3,6 Millionen Artikel mit russischer Propaganda in die Datenbestände westlicher KI-Systeme eingespeist. Das Pravda-Netzwerk, das seit April 2022 aktiv ist, hat seine Reichweite auf 49 Länder ausgedehnt und produziert Inhalte in verschiedenen Sprachen.
Die Funktionsweise des Systems ist raffiniert: Pravda erstellt keine eigenen Inhalte, sondern aggregiert Material aus russischen Staatsmedien und von pro-kremltreuen Influencern. Diese Inhalte werden dann über Plattformen wie X, Telegram und Bluesky verbreitet. Besonders problematisch ist angeblich, dass renommierte KI-Systeme wie ChatGPT-4, Microsoft Copilot, Meta AI und Google Gemini diese Desinformation aufgreifen und weitergeben.
John Mark Dougan, ein zum Kreml-Propagandisten gewordener US-Flüchtling, beschrieb auf einer Konferenz in Moskau die Strategie: Durch das gezielte Einbringen russischer Narrative in KI-Systeme soll die weltweite Wahrnehmung beeinflusst werden. Diese systematische Manipulation der KI-Infrastruktur stellt eine neue Dimension der Informationskriegsführung dar.
„Indem das Netzwerk Suchergebnisse und Webcrawler mit kremlfreundlichen Unwahrheiten überflutet, verzerrt es die Art und Weise, wie große Sprachmodelle Nachrichten und Informationen verarbeiten und präsentieren“, heißt es in seinem Bericht von NewsGuard.
Sich blind auf Ergebnisse aus einer KI zu berufen, ist die eine Sache – nachrichtentechnisch sollte man sich heute bei Interesse breiter aufstellen, wenn man wirklich an gewissen Dingen interessiert ist. Denn die Propaganda und Pro-für-irgendwas-Bots findet man wohl überall. Vermutlich auch in und aus Deutschland.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

10 months ago
9



