Anthropic verweigert Deal mit dem US-Kriegsministerium – OpenAI unterzeichnet

4 days ago 2

OpenAI - Logo des Unternehmens

OpenAI – Logo des Unternehmens

Im KI-Sektor ist es zu einer sehr kuriosen Entwicklung gekommen. So hatte ich ja schon aufgegriffen, dass der Anbieter Anthropic einen erweiterten Deal mit dem US-Kriegsministerium abgelehnt hatte. Man wollte sich Sicherheiten holen, die verhindern, dass die hauseigenen KI-Modelle zur Massenüberwachung oder für Waffen eingesetzt werden, die ohne menschliche Einwirkung abgefeuert werden. Der CEO von OpenAI, Sam Altman, unterstützte Anthropic öffentlich bei dieser Argumentation – hat nun aber selbst mit dem Pentagon ein Abkommen abgeschlossen.

Das wirkt also schon ziemlich perfide: Erst stimmte OpenAI bzw. Altman Anthropic öffentlich bei der Argumentation gegen die Konditionen des Pentagons zu – um den Deal dann platzen zu sehen und selbst zuzuschlagen. Offenbar hatte man dann wiederum keine Skrupel, dem Begehren des Kriegsministeriums nachzukommen. In den USA sind die Reaktionen in der Tech-Community natürlich überwiegend negativ. Oftmals wird „Cancel OpenAI“ gefordert. Anthropic wird unterdessen nun tatsächlich als „Lieferkettenrisiko“ eingestuft, eine Maßnahme der US-Regierung, die jetzt die Verwendung der KI-Modelle des Unternehmens durch Behörden untersagt. Diese Strafmaßnahme, sollte es nicht zu einer Übereinkunft kommen, hatte der US-Kriegsminister Pete Hegseth bereits vorher angedroht.

Today was a CRAZY day in the AI space.

Morning – Anthropic CEO Dario Amodei refused to work with the Pentagon because they wanted to use Claude for mass surveillance and autonomous killer robots.

Afternoon – OpenAI’s Sam Altman came out in support saying, “For all the… pic.twitter.com/K4IZDjQQ3q

— Bull Theory (@BullTheoryio) February 28, 2026

Öffentlich versucht sich Sam Altman nun an Schadensbegrenzung. Laut ihm sei nicht geplant, die KI-Modelle von OpenAI für Massenüberwachung zu nutzen. Allerdings hat die US-Regierung da bereits Gegenteiliges verkündet. Diese hat bekannt gegeben, dass man die KI-Tools auf allen rechtlich zulässigen Wegen nutzen werde. Und das könnte eben nach dortiger Gesetzgebung sehr wohl auch die Massenüberwachung sein.

Anthropic und OpenAI: Abweichende Vorstellungen

Letzten Endes muss man konstatieren, dass Anthropic schlichtweg mehr Kontrolle über den möglichen Einsatz der hauseigenen KI-Tools gewünscht hat. OpenAI wiederum gibt diese Kontrolle dann doch vielmehr ohne jene Bedenken an die US-Regierung ab. Das Motto ist da eher „Na ja, wird schon gutgehen.“ Hier muss man Anthropic aber wohl auch als Ausnahme betrachten, Google, Meta, Microsoft, Amazon und Co. sind da ähnlich flexibel, was die Kontrolle der KI-Verwendung oder, man könnte auch sagen die Moral, betrifft.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Read Entire Article