18. März 2026 Bernd Müller
(Bild: Tigarto / Shutterstock.com)
Die US-Regierung erklärt Anthropic zum Risiko für die nationale Sicherheit. Der Streit um KI im Militär eskaliert vor Gericht.
Das US-Kriegsministerium streitet sich mit dem KI-Startup Anthropic. Telepolis hat darüber bereits mehrfach berichtet. Weil das Unternehmen nicht der Forderung der US-Regierung nachgekommen ist, hat diese jetzt Anthropic als "inakzeptables Risiko" für die nationale Sicherheit eingestuft.
Das geht aus einem Schriftsatz hervor, über den die New York Times (NYT) berichtet hat. Das Weiße Haus begründet sein Vorgehen damit, das Unternehmen könnte seine Technologie mitten in einem Militäreinsatz abschalten oder nach eigenen Vorstellungen umgestalten.
Wie ein Millionenvertrag zum Politikum wurde
Alles begann mit einem Vertrag im Wert von 200 Millionen US-Dollar. Anthropic sollte seine KI für geheime Militärsysteme bereitstellen.
In den Verhandlungen zog das Unternehmen jedoch zwei klare Grenzen: Das KI-Modell Claude dürfe weder dazu dienen, die eigene Bevölkerung flächendeckend zu überwachen, noch in Waffensystemen arbeiten, die ohne menschliches Zutun über den Einsatz tödlicher Gewalt entscheiden.
Für das Pentagon kam das nicht infrage – das Militär will selbst bestimmen, wofür es eingekaufte Technologie nutzt.
Die Verhandlungen scheiterten schließlich. Verteidigungsminister Pete Hegseth setzte Anthropic-Chef Dario Amodei daraufhin eine knappe Frist, sämtliche Auflagen fallenzulassen. Amodei weigerte sich.
Hegseth griff daraufhin zu einem Mittel, das normalerweise nur gegen Firmen aus feindlichen Staaten zum Einsatz kommt: Er brandmarkte Anthropic offiziell als Gefahr für die militärische Lieferkette.
Klagen, Milliardenverluste und der Erste Verfassungszusatz
Anthropic ging in die Offensive und reichte zwei Klagen ein. Das Unternehmen sieht in der Einstufung eine Bestrafung für seine öffentlich vertretene Haltung zur KI-Sicherheit und beruft sich auf die im Ersten Verfassungszusatz garantierte Meinungsfreiheit.
Sollte die Einstufung bestehen bleiben, drohe der Verlust von über 100 Geschäftskunden – mit finanziellen Schäden in Milliardenhöhe, heißt es bei Bloomberg.
Die Anwälte der Regierung konterten: Die Verfassung gebe keinem Unternehmen das Recht, dem Staat einseitig Vertragsbedingungen zu diktieren.
Eine Entscheidung, ob die Risikoeinstufung vorläufig ausgesetzt wird, wird für nächste Woche erwartet.
Konkurrenten und Bürgerrechtler beziehen Stellung
Der Fall wird von der gesamten Tech-Branche nicht nur mit Interesse verfolgt, sondern mobilisiert auch zahlreiche Akteure. So forderte etwa Microsoft das Gericht in einer eigenen Eingabe auf, die Einstufung vorerst zu stoppen.
Zudem schlossen sich 37 Fachleute von OpenAI und Google – unter ihnen Googles Chefwissenschaftler Jeff Dean –mit einem gemeinsamen Schriftsatz an.
Auch die Bürgerrechtsorganisation ACLU stellte sich laut NYT-Bericht hinter Anthropic und argumentierte, das Unternehmen müsse seine Haltung zu KI-Leitplanken frei äußern dürfen.
Militär sucht Ersatz – doch der Wechsel ist kompliziert
Das Pentagon wartet den Ausgang des Verfahrens nicht ab. Laut dem obersten KI-Verantwortlichen des Ministeriums, Cameron Stanley, laufen bereits Tests mit mehreren alternativen Sprachmodellen.
OpenAI hat einen eigenen Vertrag mit dem Militär geschlossen, und Elon Musks Firma xAI darf ihr Modell Grok mittlerweile in geheimen Netzwerken einsetzen.
Ein schneller Austausch bleibt dennoch schwierig. Claude ist aktuell das einzige KI-Modell, das in den Geheimsystemen der Streitkräfte läuft, und über die Plattform des Partners Palantir fest in operative Abläufe eingebettet.
Nach Einschätzung von Insidern würde ein vollständiger Umstieg das Pentagon um rund ein halbes Jahr zurückwerfen.



