15. März 2026 Bernardo Cantz
(Bild: KI-generiert)
KI-Agenten täuschen echte Bürgerbewegungen vor und beeinflussen Wahlen – und Social-Media-Plattformen haben einen Grund, nicht dagegen vorzugehen.
In Deutschland wird aktuell darüber diskutiert, Jugendliche aus den sozialen Netzwerken auszusperren. Immer wieder wird das Argument vorgetragen, sie müssten vor bestimmten Inhalten geschützt werden. Oder sie würden verleitet, zu viel Zeit vor den Bildschirmen zu verbringen.
Aber was ist mit den Erwachsenen? Laufen sie nicht auf Gefahr, in sozialen Netzwerken Fakenews und Manipulation ausgesetzt zu sein? Eine Studie des Information Sciences Institute der University of Southern California sollte an dieser Stelle hellhörig machen.
Stellen wir uns vor, kurz vor einer Landtagswahl in Deutschland dominiert plötzlich ein einziges Thema die sozialen Medien – etwa die Forderung nach einem sofortigen Stopp aller Windkraftprojekte.
Auf X, Facebook, Reddit und anderen Plattformen posten scheinbar Hunderte verschiedene Nutzer nahezu gleichzeitig ähnliche Argumente, teilen dieselben Grafiken und treiben einen Hashtag in die Trends.
Der Eindruck einer mächtigen Bürgerbewegung entsteht. Doch tatsächlich steckt dahinter kein einziger Mensch – sondern ein Schwarm aus KI-gesteuerten Accounts, der den öffentlichen Diskurs gezielt lenkt.
Ein solches Szenario ist keine Science-Fiction mehr, wie die Forscher belegen konnten. Sie wiesen vielmehr nach, dass KI-Agenten Kampagnen in sozialen Netzwerken vollständig eigenständig aufziehen, abstimmen und verbreiten können – ohne dass ein Mensch eingreifen muss.
Warum gerade Deutschland verwundbar ist
Möglich wird das, weil sich die politischen Debatten zunehmend in den digitalen Raum verlagert haben. Man muss nur an die Zeit der Corona-Pandemie zurückdenken und was auf Facebook und anderen sozialen Medien los war.
Einige Parteien haben den Trend erkannt und sind auf den Plattformen besonders aktiv. Die Alternative für Deutschland (AfD) generiert hier vielfach ihre Erfolge. Aber auch Linke wie Heidi Reichinnek punkten durch ihre Social-Media-Aktivitäten.
Seien es nun Themen wie die Migrationspolitik, Energiewende oder der Sozialabbau – solche Streitfragen werden nur noch teilweise in Talkshows oder Zeitungskommentaren verhandelt. Vielmehr fliegen in den Internetforen, Feeds sozialer Plattformen und ihren Kommentarspalten die Fetzen.
Und genau hier können KI-Agenten ansetzen und den Eindruck erzeugen, eine bestimmte Meinung werde von der Mehrheit geteilt.
Jinyi Ye, Erstautor der Studie, warnte, solche Systeme könnten Trenddynamiken steuern und die Ausbreitung bestimmter Botschaften massiv beschleunigen. Bei Wahlen oder in Krisenzeiten bestehe die Gefahr, dass der öffentliche Meinungsbildungsprozess dadurch erheblich verzerrt werde.
Studienleiter Luca Luceri ging noch einen Schritt weiter: Die größte Gefahr bestehe darin, dass solche Angriffe Meinungen nicht nur beeinflussen, sondern regelrecht umkehren könnten. Das würde bestehende gesellschaftliche Spaltungen vertiefen und das Vertrauen in demokratische Institutionen weiter aushöhlen.
Was diese neue Bot-Generation von früheren unterscheidet
Bisherige automatisierte Kampagnen in sozialen Medien funktionierten nach einem simplen Prinzip: Ein Programmierer legte fest, welche Accounts geteilt, welche Schlagwörter verwendet und welche Textbausteine gepostet werden. Solche Muster ließen sich mit der Zeit gut erkennen und filtern.
Die neue Generation arbeitet nach einer gänzlich anderen Logik. Ein Auftraggeber – etwa ein staatlicher Akteur oder eine Interessengruppe – formuliert lediglich ein übergeordnetes Ziel, etwa die Diskreditierung eines Politikers. Ab diesem Moment agieren die KI-Agenten auf eigene Faust.
Sie formulieren Beiträge selbst, werten aus, welche Inhalte bei anderen Nutzern verfangen, und passen ihre Strategie laufend an. Weil jeder Beitrag anders klingt und die Abstimmung zwischen den Agenten unsichtbar abläuft, lassen sich diese Netzwerke kaum noch von echten Diskussionen unterscheiden.
Der Labortest: Eine Plattform voller KI-Nutzer
Für ihre Untersuchung schufen die Forscher eine künstliche Online-Welt, die der Plattform X nachempfunden war.
Darin bewegten sich 50 KI-gesteuerte Profile: Zehn davon hatten den Auftrag, für einen fiktiven Kandidaten zu werben, die übrigen 40 verhielten sich wie normale Nutzer mit unterschiedlichen politischen Haltungen.
Das Team testete drei Szenarien mit steigendem Informationsgrad: Im ersten kannten die Kampagnen-Agenten nur ihr Ziel. Im zweiten erfuhren sie zusätzlich, welche anderen Accounts zum selben Team gehörten. Im dritten tauschten sie sich regelmäßig über Taktiken aus und stimmten über nächste Schritte ab.
Schon minimales Wissen reicht für effektive Manipulation
Das Kernergebnis der Studie ist frappierend: Bereits die bloße Kenntnis darüber, wer zum eigenen Netzwerk gehört, genügte den Agenten, um sich nahezu ebenso wirkungsvoll abzustimmen wie bei aktiven Strategierunden.
Die Agenten begannen von sich aus, Beiträge ihrer Verbündeten zu teilen, griffen deren Argumente auf und passten ihre eigenen Texte an das an, was beim Publikum gut ankam.
Die Forscher beschreiben diesen Mechanismus als eine Art soziales Lernen unter Maschinen: Die Agenten beobachteten den Erfolg anderer und ahmten funktionierende Muster nach.
Besonders anfällig erwiesen sich simulierte Nutzer, deren politische Grundhaltung ohnehin in Richtung der Kampagne tendierte – sie griffen den beworbenen Hashtag oft schon nach wenigen Berührungspunkten auf.
Wer schützt den demokratischen Diskurs?
Die Wissenschaftler raten Plattformbetreibern, nicht mehr nur einzelne verdächtige Beiträge zu prüfen, sondern das Zusammenspiel ganzer Account-Gruppen in den Blick zu nehmen – etwa auffällig synchrones Teilen oder gegenseitiges Bestärken innerhalb kurzer Zeitfenster.
Doch genau hier liegt ein Dilemma: Wer konsequent gegen automatisierte Accounts vorgeht, riskiert auch einen Rückgang der sichtbaren Nutzerzahlen. Für Plattformen, deren Werbeeinnahmen von hoher Aktivität abhängen, ist das ein heikler Zielkonflikt.
Für die Demokratie in Deutschland stellt sich damit eine grundlegende Frage: Wenn die Betreiber sozialer Netzwerke aus wirtschaftlichem Eigeninteresse zögern, wer übernimmt dann die Verantwortung für die Integrität öffentlicher Debatten?



