Anthropic beharrt darauf, dass KI-Modelle des Unternehmens nicht zur Massenüberwachung von Amerikanern sowie in autonomen Waffensystemen genutzt werden dürfen. Das Verteidigungsministerium forderte hingegen die Rechte für „jede rechtmäßige Nutzung“ ein.
Anthropic argumentiert in der Klage, das Vorgehen der US-Regierung verletzte das Recht des Unternehmens auf freie Meinungsäußerung, weil es für seine Grundsätze bestraft werde. Es ist höchst ungewöhnlich, dass eine US-Firma zum „Supply-Chain Risk to National Security“ erklärt wird. Präsident Donald Trump (79) ordnete an, dass alle US-Bundesbehörden die Nutzung von Anthropic-Technologie einstellen sollen. Anthropic war bisher die einzige KI-Firma, deren Software auch für eine als vertraulich eingestufte Nutzung im US-Militär freigegeben war.
OpenAI will Anthropic ersetzen
Nach dem Streit mit Anthropic schloss der ChatGPT-Entwickler OpenAI eine Vereinbarung mit dem Pentagon. OpenAI-Chef Sam Altman (40) ließ sich zwar auf die Bedingungen des Ministeriums ein, versicherte aber später, dass es technische Hürden für den Einsatz zur Massenüberwachung in den USA geben sollte. Die Robotik-Chefin von OpenAI, Caitlin Kalinowski (44), trat am Wochenende aus Protest gegen den Deal zurück. Anthropics KI-Software Claude ist ein Konkurrent von ChatGPT unter anderem für den Einsatz in Unternehmen.
Anthropic-Chef Dario Amodei (43) warnt, dass künstliche Intelligenz es möglich mache, über das Netz verstreute Daten einzelner Menschen in großem Stil automatisiert zu einem detaillierten Bild ihres Lebens zusammenzusetzen. Zugleich sei KI noch nicht verlässlich genug, um in vollständig autonomen Waffen eingesetzt zu werden. „Wir werden nicht wissentlich ein Produkt liefern, das Amerikas Kämpfer und Zivilisten in Gefahr bringt“, schrieb Amodei in einem Blogbeitrag.



