Keine KI für autonome Waffen und Massenüberwachung: Anthropic zieht gegen US-Regierung vor Gericht

5 hours ago 2

Der KI-Entwickler Anthropic hat vor einem Bundesgericht in San Francisco Klage gegen 17 US-Bundesbehörden und das Exekutivbüro des Präsidenten eingereicht. Das Unternehmen wirft der Regierung vor, es rechtswidrig dafür bestraft zu haben, dass es an zwei Nutzungsbeschränkungen für sein KI-Modell Claude festhielt: keine letale autonome Kriegsführung und keine Massenüberwachung von US-Bürgern.

Das Verteidigungsministerium drohte Anthropic laut Klageschrift gleichzeitig mit zwei sich widersprechenden Maßnahmen: Entweder werde man den Defense Production Act nutzen, um Anthropic zur Bereitstellung von Claude zu zwingen, oder man werde das Unternehmen als Sicherheitsrisiko aus der Lieferkette verbannen. Ein Unternehmen könne aber kaum gleichzeitig so unverzichtbar sein, dass es per Gesetz zur Kooperation gezwungen werden muss, und so gefährlich, dass es komplett ausgeschlossen werden soll, argumentiert Anthropic.

Juristisch stützt sich die Klage unter anderem darauf, dass das verwendete Gesetz 10 U.S.C. § 3252 nur für Fälle gedacht sei, in denen ein ausländischer Gegner ein Informationssystem sabotieren oder unterwandern könnte. Die Exekutive selbst definiere solche Gegner als China, Russland, Iran, Nordkorea, Kuba und Venezuela.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

Jetzt abonnieren

Read Entire Article