Der Streit zwischen Anthropic und dem US-amerikanischen Department of Defense (DOD) ist von Doppelzüngigkeit und Intrigen geprägt.
In der letzten Februarwoche forderte der US-Kriegsminister Pete Hegseth, dass Anthropic die Schutzmaßnahmen seiner großen Sprachmodelle (LLMs) für militärische Einsatzzwecke deaktiviere oder dem DOD uneingeschränkte Modelle ausliefere. Diese Guardrails sollen unter anderem den Einsatz in Systemen zum autonomen Töten und für die Massenüberwachung von US-Bürgern verhindern. Anthropic weigerte sich. Die US-Regierung begann reflexhaft zu schimpfen und drohte unter anderem mit dem Defense Production Act, einem Gesetz, mit dem die Regierung die Produktion von kriegswichtigen Gütern priorisieren kann.
Philipp Steevens ist seit 2022 bei iX. Er betreut vornehmlich Artikel aus den Bereichen Data Science und KI und kümmert sich um den LinkedIn-Auftritt des Magazins.
Seinen Standpunkt kann sich der LLM-Anbieter anscheinend leisten: Das Pilotprojekt mit dem DOD sollte einen finanziellen Deckel von 200 Millionen US-Dollar haben, während sich der hochgerechnete Jahresumsatz der Firma auf 14 Milliarden US-Dollar beläuft. Rückendeckung bekam Anthropic dabei auch von OpenAI-CEO Sam Altman, der die Standhaftigkeit in einer Fernsehsendung lobte.
In typischer Trump-Manier folgte eine wütende Regierungserklärung in Tweet-Form. Der US-Präsident forderte darin alle Regierungsbehörden auf, die Anthropic-Modelle rauszuwerfen. Frist: sechs Monate. Außerdem erklärte er den KI-Anbieter zum Lieferkettenrisiko. Dieses Prädikat blieb bisher ausländischen Firmen wie Huawei vorbehalten.
OpenAI und xAI sind zur Stelle
In diesem Drama untergegangen ist eine Studie des King's College in London. Die Forscher zeigten, dass LLMs in Planspielen zu Konfliktsituationen in 95 Prozent der Fälle zu Atomwaffen als Eskalationsmittel griffen. Die Studie in Kombination mit Anthropics Herstellerangaben, dass die eigene Technik für autonome Waffensysteme nicht bereit ist, sollte dem gesunden Menschenverstand ausreichen. Den vermisst man aber spätestens seit Trump II schmerzlich in der US-Regierung.
Aber zu Trumps Glück gibt es noch Anbieter, die sich für nichts zu schade sind. Während OpenAI-Boss Altman bei CNBC Anthropics Haltung lobte, schloss er im Hintergrund einen Deal mit dem DOD – im Grunde zu den gleichen Konditionen wie Anthropic. Denn auch hier sind Massenüberwachung von US-Staatsbürgern und autonomes Töten zumindest laut den öffentlich bekannten Informationen ausgeschlossen. Damit einher ging eine kleine Spende des OpenAI-Mitgründers Greg Brockman in Höhe von 25 Millionen US-Dollar an die Lobbygruppe von Trump. Auf die nachfolgende Kritik reagierte Altman mit den üblichen Krokodilstränen und einem Schlingerkurs bei den vermeintlichen Vertragsdetails.
Zusätzlich soll auch Grok, das LLM von Elon Musks Unternehmen xAI, für die wichtigen Aufgaben der Massenüberwachung und des autonomen Tötens zum Einsatz kommen. Das Tool ist so unreguliert, dass sich damit problemlos Darstellungen sexuellen Missbrauchs von Kindern erzeugen ließen. Wenn also die Modelle chronischer Lügner und solche für lockere Missbrauchsdarstellungen zukünftig Einfluss auf die Militärnetzwerke und Kriegssysteme der USA haben, kann nichts mehr schiefgehen.
Anthropic ist das neue Huawei
Kurzfristig gewann das Marketing von Anthropic, das edelmütig die ethischen Werte des Unternehmens verteidigt hat. In den Folgetagen zog Claude in den App-Stores an den Konkurrenten ChatGPT und Gemini vorbei. Wie sich allerdings die Einstufung als Lieferkettenrisiko auswirkt, ist ungewiss. Müssen jetzt alle Firmen, die Verträge mit US-Verteidigungseinrichtungen haben, Anthropic komplett aus ihrer Lieferkette verbannen?
Microsoft sieht das offenbar nicht so. Ein Sprecher erklärte Business Insider, die Prüfung durch Juristen habe ergeben, dass man seinen Kunden weiterhin Anthropic-Produkte über die eigenen Plattformen anbieten könne. Ausnahme sei lediglich das Verteidigungsministerium. Bei Projekten außerhalb des Verteidigungssektors könne Microsoft hingegen mit Anthropic zusammenarbeiten. Wie Reuters schreibt, bezweifelten Juristen ohnehin, dass die Trump-Regierung die nötigen Befugnisse hat, die Nutzung von Anthropic etwa bei Rüstungsunternehmen zu untersagen.
Das heißt natürlich nicht, dass Firmen wie Lockheed Martin nicht trotzdem Trumps Social-Media-Erguss folgen und den Bannhammer gegen Anthropic schwingen. Aber die Modelle des Anbieters gelten derzeit als die absolute Marktspitze, auch wenn Claude Opus nach wie vor die höchsten Betriebskosten erzeugt. Und Anthropics LLMs scheinen für die US-Kriegsbemühungen im Iran zentral zu sein. Es bleibt also spannend, ob sich die Erklärung zum nationalen Risiko tatsächlich auf die Geschäfte von Anthropic auswirkt.
Dieser Kommentar ist das Editorial der iX 04/2026, die am 20. März 2026 erscheint.
(pst)



