Frist bis Freitag: Anthropic soll sich dem Militär beugen

1 week ago 3

24. Februar 2026 Bernd Müller

 AI Sicherheitsfirma entwickelt Claude Sprachmodelle. Gegründet von ehemaligen OpenAI-Mitgliedern, die sich auf sichere KI-Systeme konzentrieren.

(Bild: PhotoGranary02 / Shutterstock.com)

Das Pentagon droht mit Maßnahmen, die bisher nur gegen ausländische Firmen aus feindlichen Staaten eingesetzt wurden.

Das Pentagon und das KI-Unternehmen Anthropic sind sich nicht gerade grün. Zwischen ihnen ist ein Machtkampf entbrannt, der in eine kritische Phase gekommen zu sein scheint.

Bei einem Treffen am Dienstag im Pentagon stellte Verteidigungsminister Pete Hegseth dem Anthropic-Chef Dario Amodei ein klares Ultimatum: Bis Freitagabend soll das Unternehmen sämtliche Einschränkungen für die militärische Nutzung seines KI-Modells Claude aufheben.

Kommt Anthropic dieser Forderung nicht nach, will das Ministerium zu drastischen Mitteln greifen. Das berichtete Axios unter Berufung auf mehrere mit dem Vorgang vertraute Personen.

Zwei Drohungen mit weitreichenden Folgen

Das Pentagon hält zwei Hebel bereit, um den Druck auf Anthropic zu erhöhen.

Erstens könnte es das Unternehmen als "Risiko für die Lieferkette" einstufen. In der Regel trifft diese Maßnahme nur ausländische Firmen mit Verbindungen zu feindlichen Staaten.

Die Folge wäre gravierend: Jedes Unternehmen, das mit dem Pentagon zusammenarbeitet, müsste nachweisen, dass es Claude in keinem seiner militärischen Projekte nutzt. Zahlreiche Technologiefirmen wären davon betroffen.

Zweitens steht der sogenannte Defense Production Act im Raum. Dieses Gesetz erlaubt es dem Präsidenten, Zwang gegen Privatunternehmen anzuwenden. Mit ihm sollen Firmen verpflichtet werden, Aufträge zu erfüllen und dabei die volle Priorität auf die Landesverteidigung zu legen.

Es kam zuletzt während der Corona-Pandemie zum Einsatz, um die Herstellung von Impfstoffen und Beatmungsgeräten zu beschleunigen. Laut dem Wall Street Journal wären beide Schritte gegen ein heimisches KI-Unternehmen nahezu ohne Vorbild.

Ein Vertreter des Ministeriums fasste die Lage gegenüber Axios so zusammen: "Der einzige Grund, warum wir noch mit diesen Leuten reden, ist, dass wir sie brauchen, und zwar jetzt." Ihr Problem sei, dass sie so gut seien.

Wo Anthropic seine Grenzen zieht

Im Kern geht es um eine grundsätzliche Frage: Wer bestimmt, wofür ein KI-System im Krieg eingesetzt werden darf – das Militär oder der Hersteller?

Hegseth vertritt die Haltung, dass kein Unternehmen dem Pentagon Vorschriften für operative Entscheidungen machen darf. Das Ministerium verlangt deshalb Zugang zu Claude für "alle rechtmäßigen Zwecke" – ohne Mitspracherecht bei einzelnen Einsätzen.

Anthropic lehnt das in dieser Form ab. Das Unternehmen erklärt sich zwar bereit, seine Nutzungsregeln für das Militär anzupassen. Zwei Bereiche schließt es jedoch kategorisch aus: Claude darf weder zur massenhaften Überwachung von US-Bürgern dienen noch bei der Entwicklung von Waffen helfen, die ohne menschliche Kontrolle feuern.

Zusätzlich belastet ein Streit über eine Militäroperation in Venezuela das Verhältnis.

Hegseth warf Amodei vor, sein Unternehmen habe sich beim Partnerunternehmen Palantir über den Einsatz von Claude bei der Entführung des venezolanischen Präsidenten Maduro beschwert.

Amodei wies das zurück und betonte, die Sicherheitsregeln von Anthropic hätten die Arbeit des Pentagons zu keinem Zeitpunkt behindert.

Widersprüchliche Schilderungen aus dem Sitzungssaal

Die Beschreibungen der Gesprächsatmosphäre fallen je nach Quelle unterschiedlich aus. Ein hochrangiger Beamter nannte das Treffen "überhaupt nicht herzlich und freundlich". Eine andere Person schilderte es dagegen als sachlich und ruhig – niemand habe die Stimme erhoben, und Hegseth habe die Qualität von Claude sogar ausdrücklich gelobt.

Die Zusammensetzung der Pentagon-Delegation unterstreicht den Ernst der Lage: Neben Hegseth nahmen unter anderem sein Stellvertreter Steve Feinberg, der für Forschung zuständige Unterstaatssekretär Emil Michael und der oberste Jurist des Ministeriums, Earl Matthews, teil.

Nach dem Treffen schlug Anthropic versöhnliche Töne an. Ein Sprecher erklärte, man führe die Gespräche "in gutem Glauben" fort, um die nationale Sicherheitsmission weiterhin verantwortungsvoll zu unterstützen.

Kein einfacher Ersatz für Claude in Sicht

Ein Austausch von Claude wäre für das Militär alles andere als einfach. Das Modell ist derzeit das einzige, das in den geheimen Systemen der US-Streitkräfte läuft.

Laut einem hochrangigen Beamten würde ein Wechsel "massive Störungen" verursachen. In mehreren militärisch relevanten Bereichen – etwa bei offensiven Cyberoperationen – liegt Claude nach Einschätzung einer informierten Quelle vor der Konkurrenz.

Trotzdem treibt das Pentagon bereits Alternativen voran. Die Gespräche mit OpenAI, Google und Elon Musks Firma xAI über den Einsatz ihrer Modelle in geheimen Netzwerken laufen auf Hochtouren.

xAI hat laut Axios bereits einen entsprechenden Vertrag unterzeichnet. Googles Modell Gemini gilt demnach als möglicher Ersatzkandidat – vorausgesetzt, Google stimmt den gleichen Bedingungen zu, die Anthropic bislang ablehnt.

Wie schnell diese Modelle tatsächlich einsatzbereit wären, bleibt offen. Der Ausgang dieses Konflikts dürfte weit über Anthropic hinaus Maßstäbe für das Verhältnis zwischen KI-Branche und Militär setzen.

Read Entire Article