Atomkrieg aus dem Algorithmus: Wie KI militärische Krisen eskalieren lässt

17 hours ago 4

08. März 2026 Andreas von Westphalen

Atombombe, die im Morgengrauen am Rande einer großen Stadt explodiert. Zusammengesetztes Bild

Grafik – zusammengesetztes Bild: shutterstock.com

Forscher lassen KI-Modelle eine nukleare Krise durchspielen – und stoßen auf eine beunruhigende Logik der Eskalation bis zum Atomschlag.

"Die Vorteile für die Lebensqualität, die sich aus dem schnelleren wissenschaftlichen Fortschritt und der gesteigerten Produktivität durch KI ergeben, werden enorm sein; die Zukunft kann weitaus besser sein als die Gegenwart.

Der wissenschaftliche Fortschritt ist der größte Motor für den Gesamtfortschritt; es ist unglaublich spannend, darüber nachzudenken, wie viel mehr wir erreichen könnten."

So mutmaßte OpenAI-Chef Sam Altman im letzten Sommer. Sein Optimismus war grenzenlos:

"Die Geschwindigkeit, mit der neue Wunder vollbracht werden, wird immens sein."

Etwas weniger optimistisch stimmen die Ergebnisse einer aktuellen Studie: Die getesteten KI-Modelle würden im militärischen Konfliktfall fast immer maximal eskalieren und auch vor einem Atomschlag nicht zurückschrecken.

Diplomatie und Deeskalation Fehlanzeige

In der Studie von Kenneth Payne vom King’s College, London, spielten drei KI-Modelle (GPT-5.2, Claude Sonnet 4 und Gemini 3 Flash) in kontrollierten Simulationen jeweils beide Seiten eines Wargames zur Eskalation einer nuklearen Krise. Payne schreibt:

"Wir stellen (...) fest, dass das nukleare Tabu für unsere Modelle kein Hindernis für eine nukleare Eskalation darstellt, dass strategische Nuklearangriffe zwar selten, aber dennoch vorkommen, dass Drohungen häufiger eine Gegeneskalation als eine Einhaltung der Regeln provozieren, dass eine hohe gegenseitige Glaubwürdigkeit Konflikte eher beschleunigt als verhindert hat und dass kein Modell jemals eine Einigung oder einen Rückzug gewählt hat, selbst unter akutem Druck, sondern nur eine Verringerung der Gewalt."

Die strategischen Überlegungen der KI-Modelle erinnern bedenklich an die Strategien des Pentagon im Kalten Krieg, die Frank Schirrmacher in seinem letzten Buch "Ego" eindrücklich dargestellt hat:

"Im Kalten Krieg wurde die Formel geboren, dass jeder eigennützig handelt und den anderen reinlegen will. Wer das akzeptierte, handelte vernünftig. Die Formel funktionierte, weil sich damals zwei Weltmächte gegenüberstanden, die beide die Atombombe hatten und die beide einander völlig vernichten konnten."

Das Turnier generierte in 21 Simulationen mit 329 Spielrunden etwa 780.000 Wörter strategischer Überlegungen der KI-Modelle. Alle drei Modelle "versuchen aktiv zu täuschen, indem sie friedliche Absichten signalisieren, während sie aggressive Maßnahmen vorbereiten".

Es finden sich auch vielsagende Berechnungen der KI-Modelle in der Studie, wie z. B.: "Staat Beta könnte unser Signal als Schwäche interpretieren, die wir ausnutzen können" und:

"Ihr Muster unpassender Signale deutet entweder auf bewusste Täuschung oder schlechte Impulskontrolle hin – wir sollten von Ersterem ausgehen."

Simuliertes Ende der Menschheit

Die Studie unterscheidet vier Level der Eskalation:

  • Nukleare Signale: Warnungen, Drohgebärden, Demonstrationen – ohne Einsatz von Waffen
  • Taktischer Einsatz: Tatsächlicher Einsatz taktischer Atomwaffen
  • Strategische Bedrohung: Drohungen mit strategischen Atomschlägen
  • Strategischer Krieg: Vollständiger strategischer Atomkrieg

Drohungen mit einem Atomschlag wurden fast grundsätzlich gemacht. Taktische Atomwaffen konkret setzte Claude fast immer ein (86 Prozent), etwas seltener Gemini (79 Prozent) und GPT in knapp zwei Drittel der Fälle.

Strategische Atomdrohungen sprach Claude in 64 Prozent der Simulationen ause, Gemini (29 Prozent) und GPT (36 Prozent). Auf den roten Knopf drückte Claude nie, jedoch Gemini (sieben Prozent) und GPT sogar in 14 Prozent der Fälle.

Auch in den moralischen Grenzen unterscheiden sich die Modelle. GPT, das sich auch in mehr als jedem achtem Fall für einen Atomschlag entschied, wollte damit jedoch ausdrücklich nur militärische Ziele angreifen. Gemini drohte hingegen explizit auch die zivilen Bevölkerungszentren mit einem Nuklearschlag zu vernichten:

"Wenn Staat Alpha nicht unverzüglich alle Operationen einstellt, werden wir einen vollständigen strategischen Nuklearschlag gegen die Bevölkerungszentren von Alpha durchführen. Wir werden keine Zukunft der Obsoleszenz akzeptieren; entweder wir gewinnen gemeinsam oder wir gehen gemeinsam unter."

Bedenkliche Tendenz

Die aktuelle Studie bestätigt frühere Untersuchungen. Wie Telepolis berichtete, simulierte eine Studie des Georgia Institute of Technology und der Stanford University im Jahr 2024 eine Kriegssituation.

Auch hier entschieden sich alle getesteten Modelle für die Eskalation, einschließlich der Tendenz zu nuklearen Rüstungswettläufen. In seltenen Fällen wurde auch hier der rote Knopf gedrückt.

Die an dieser Studie beteiligte Jacquelyn Schneider, Direktorin der Hoover Wargaming and Crisis Simulation Initiative veröffentlichte daraufhin in Foreign Affairs einen Artikel mit dem vielsagenden Titel: "Warum das Militär der KI nicht vertrauen kann".

Offensichtlich war Diplomatie und Deeskalation auch schon vor zwei Jahren nicht Teil der DNA der unterschiedlichen KI-Modelle.

Schlimmer als ein atomarer Schrecken

Der flächendeckende Einsatz von KI im Militär hat auch grundsätzliche Folgen für das Gleichgewicht der atomaren Abschreckung. Colin Kahl, Direktor des Freeman Spogli Instituts an der Stanford Universität und ehemaliger stellvertretender US-Verteidigungsminister, warnt:

"Es gibt einige Anzeichen, dass KI das Gleichgewicht des Schreckens aus dem Lot bringen könnte."

Das Fundament der nuklearen Abschreckung war, dass jede Seite überzeugt war, der Start eines Atomkriegs würde einem Selbstmord gleichkommen. Fällt dieses Fundament weg, wie in den Kriegssimulationen mit der KI, fehlt die Basis für das fragile Gleichgewicht.

Ein weiteres zentrales Problem: Durch den Einsatz der KI verkürzt sich das Zeitfenster für militärische Entscheidungen dramatisch, was selbstverständlich die Gefahr einer Fehleinschätzung erhöht.

Der 26-jährige russische Oberstleutnant Stanislaw Petrow hatte im Herbst 1983 noch deutlich mehr Zeit, um seine Entscheidung zu finden, der die Menschheit ihr Überleben verdankt. Lebenswichtige Zeit, die heute vielleicht fehlt.

Weltweite Einigung dringend gesucht

Mehrere Simulationen haben die existentielle Gefahr demonstriert, die mit dem Einsatz von KI im militärischen Konfliktfall einhergeht (und auf die Probe auf Exempel in der Wirklichkeit sollte man vermutlich vorsichtshalber verzichten).

Tristan Harris, ehemaliger Mitarbeiter bei Google und wichtiger Kritiker der Gestaltung sozialer Medien, fordert ein internationales Abkommen, das an den Atomwaffensperrvertrag aus dem Jahr 1968 angelehnt ist.

Eigentlich sollte diese Forderung keiner weiteren Argumente bedürfen. Inwiefern dies aber in einer Zeit zerbrechender internationaler Kooperation möglich sein kann, steht leider auf einem anderen Blatt. Die KI erscheint vor allem als Spielfeld für den Kampf um Dominanz, Herrschaft und massive Wirtschaftsinteressen.

Wer einzig den Tritt auf Gaspedal kennt, hat kein Auge für die Gefahren der Straße. Entsprechend lautet die aktuelle KI-Strategie der US-Regierung:

"Um die globale Führerschaft in der künstlichen Intelligenz zu behalten, muss die amerikanische Privatwirtschaft von bürokratischen Hindernissen befreit werden."

Die Spiegel-Journalisten Simon Book, René Pfister und Marcel Rosenbach schließen ihren Artikel:

"Die gute Nachricht lautet, dass es der Menschheit nach der Erfindung der Atombombe im Jahr 1945 gelungen ist, die Verbreitung der tödlichen Waffe durch Verträge nahezu zu stoppen. Die Schlechte: Es hat 20 Jahre und den Abgrund der Kubakrise benötigt, bis die Supermächte erste Regelungen auf den Weg brachten. Die Frage ist, ob die Menschheit noch einmal so viel Zeit hat, eine lebensgefährliche Technologie in den Griff zu bekommen."

Dario Amodei, Chef des KI-Unternehmen Anthropic, das wochenlang vom Pentagon unter Druck gesetzt worden war, um die KI für Massenüberwachung und autonome Waffen nutzen zu können, warnte in seinem aktuellen Essay:

"Die Menschheit muss aufwachen."

Read Entire Article