KI-Bilder zur Ergreifung Maduros verbreiten sich rasant

1 day ago 3

Wenige Stunden nach der Ergreifung des ehemaligen venezolanischen Machthabers Nicolás Maduro durch US-Spezialkräfte in der Nacht auf Samstag wurden soziale Netzwerke bereits mit gefälschten Fotos und Videos der Aktion geflutet. Nutzer verbreiteten mutmaßlich mittels KI-Bildgeneratoren erstellte Fotos von Maduro auf X, Instagram, Facebook und TikTok. Die Fake-Bilder wurden dabei teils millionenfach geklickt oder geteilt.

Eines der KI-generierten Bilder zeigt den von Beamten der Drug Enforcement Administration (DEA) eskortierten Ex-Präsidenten Venezuelas vor einem Flugzeug. Auf einem weiteren vermeintlichen Foto ist Maduro in einem Flugzeug umgeben von US-Militärs zu sehen. Beide Bilder konnten mittlerweile als KI-generiert entlarvt werden. Das berichtet der BBC-Journalist Shayan Sardarizadeh auf seinem Bluesky-Account.

In den frühen Morgenstunden des vergangenen Samstags haben die USA Venezuela überfallen und den autokratischen Staatschef Nicolás Maduro und seine Frau im Rahmen einer Spezialoperation ergriffen und nach New York gebracht. Teil der völkerrechtswidrigen Aktion waren Angriffe auf verschiedene Ziele in und um Caracas. Dabei seien laut Behörden dutzende Menschen getötet worden, berichtet die New York Times. In dem Überfall auf Venezuela kulminierten seit Monaten andauernde Spannungen zwischen beiden Ländern. Die US-Justiz wirft Maduro laut tagesschau.de unter anderem „Verschwörung zum Drogenterrorismus“ vor.

Neben KI-Fotos tauchten mehrere wohl mittels KI-Anwendungen manipulierte Videos des US-amerikanischen Angriffs auf Venezuela in den sozialen Netzwerken auf. Als echt geltendes Videomaterial wurde dabei mithilfe von KI verfälscht. Eine Videosequenz, die mehrere mutmaßlich US-amerikanische Hubschrauber über dem Nachthimmel von Caracas zeigt, wurde etwa mit Grok, der KI des Kurznachrichtendienst X, um Explosionen von vermeintlichen Luftangriffen ergänzt. Das schreibt Sardarizadeh auf Bluesky.

Die Entlarvung von KI-generierten Videos oder Bildern stellt ein zunehmendes Problem dar. Professionelle Fakt-Checker müssen oftmals auf KI-basierte Ressourcen zurückgreifen, etwa den von Google betriebenen KI-Detektor SynthID. SynthID ist ein Tool zum Einbetten und Erkennen von Wasserzeichen in KI-generierten Inhalten.

Neben KI-generierten Fotos und Videos gingen etliche echte, aber irreführende Videos im Zusammenhang mit der Ergreifung Maduros in den sozialen Medien viral. Die Videoaufnahmen gaben vor, den US-amerikanischen Angriff auf Venezuela, die Landung von US-Truppen in Caracas oder jubelnde Venezolaner zu zeigen. Tatsächlich dokumentierten die Videos aber andere Vorfälle, etwa einen iranischen Angriff auf Israel im Juni vergangenen Jahres, eine Übung von US-Truppen in Miami oder Menschenmengen im Rahmen eines Anti-Maduro Protests im Juli 2024.

(rah)

Read Entire Article