Trump verbietet Behörden KI von Anthropic

1 week ago 3

Donald Trump lenkt im Streit über ethische Bedenken zwischen dem Verteidigungsminister und Anthropic ein. "Wir brauchen sie nicht", sagt er – und droht dem Unternehmen.

Aktualisiert am 27. Februar 2026, 23:53 Uhr Quelle: DIE ZEIT, dpa, AP, AFP, ,

22 Kommentare
 US-Präsident Donald Trump hat dem KI-Unternehmen Anthropic gedroht, weil es seine Forderungen nicht erfüllen will.
US-Präsident Donald Trump hat dem KI-Unternehmen Anthropic gedroht, weil es seine Forderungen nicht erfüllen will. © Kenny Holston-Pool/​AFP/​Getty Images

US-Präsident Donald Trump hat Bundesbehörden die Nutzung der Technologie des KI-Unternehmens Anthropic untersagt. "Wir brauchen sie nicht, wir wollen sie nicht und werden nie wieder mit ihnen Geschäfte machen!", teilte Trump mit. Für Behörden wie das Verteidigungsministerium, die bislang Technologien von Anthropic nutzen, soll demnach eine sechsmonatige Übergangsfrist gelten.

Trump drohte der Firma, sie solle sich besser "kooperativ" zeigen. Andernfalls wolle er die "volle Macht des Präsidentenamtes" einsetzen und diese zum Einlenken bewegen. Trump stellte "schwerwiegende zivil- und strafrechtliche Konsequenzen" in Aussicht.

Hintergrund ist der öffentliche Streit des Unternehmens mit dem US-Verteidigungsministerium über die Sicherheit von künstlicher Intelligenz. Verteidigungsminister Pete Hegseth hatte Anthropic eine Frist gesetzt. Bis Freitag sollte das Unternehmen seine Technologie dem US-Militär für eine uneingeschränkte Nutzung zur Verfügung stellen. Anthropic lehnte das ab.

Anthropic mahnt ans Gewissen

Tags zuvor hatte Anthropic-Chef Dario Amodei erklärt, sein Unternehmen könne den Forderungen des Verteidigungsministeriums nicht guten Gewissens nachkommen. Anthropic wolle seine KI-Technologie nicht wie von der Trump-Regierung gewünscht für die "Massenüberwachung im Inland" oder in vollautonomen Waffensystemen einsetzen lassen.

US-Präsident Trump beschimpfte Anthropic daraufhin als "radikal linkes, wokes Unternehmen", das einen "katastrophalen Fehler" gemacht habe. Das Verteidigungsministerium drohte zudem, Anthropic als ein Lieferkettenrisiko einzustufen, was das Geschäft des Unternehmens in den USA drastisch einschränken würde.

Anthropic beharrt jedoch darauf, dass die von der Firma geforderten Einschränkungen wichtig seien. "Diese Drohungen verändern unseren Standpunkt nicht", sagte Anthropic-Chef Amodei und fügte an: "Wir werden nicht wissentlich ein Produkt bereitstellen, das amerikanische Soldaten und Zivilisten in Gefahr bringt."

KI noch nicht verlässlich genug

So mache es künstliche Intelligenz möglich, über das Netz verstreute Daten einzelner Menschen in großem Stil automatisiert zu einem ausführlichen Bild ihres Lebens zusammenzusetzen. Zugleich sei die KI noch nicht verlässlich genug, um in vollständig autonomen Waffen eingesetzt zu werden.

Anthropic war 2021 von ehemaligen Mitarbeitern des KI-Unternehmens OpenAI gegründet worden. Während OpenAI durch seinen Chatbot ChatGPT der breiten Öffentlichkeit bekannt ist, zielt Anthropic mit seinem Chatbot Claude eher auf Programmierer und Unternehmen ab, denen unter anderem Datensicherheit wichtig ist.

Read Entire Article