Im Streit mit dem Pentagon hat Anthropic jetzt Klage gegen die US-Regierung eingereicht, um die Platzierung auf einer Sanktionsliste zum Schutz der nationalen Sicherheit noch zu verhindern. In der Klage gegen zahlreiche US-Ministerien sowie deren Minister und Ministerinnen bezeichnet das KI-Unternehmen deren Maßnahmen als „beispiellos und gesetzeswidrig“. Die Verfassung der USA erlaube es nicht, dass die Regierung ihre enorme Macht dafür verwendet, „ein Unternehmen für sein geschütztes Rederecht zu bestrafen“. Man wende sich an die Justiz als letzte Instanz, „um die eigenen Rechte geltend zu machen und die unrechtmäßige Vergeltung der Exekutive zu beenden“. Unterstützung hat Anthropic umgehend von zahlreichen Angestellten der Konkurrenten OpenAI und Google erhalten.
Unterstützung von der Konkurrenz
In dem seit Wochen öffentlich ausgetragenen Streit geht es um den Versuch des US-Verteidigungsministeriums, sich und dem ganzen Militär einen uneingeschränkten Zugriff auf die KI-Technik von Anthropic zu sichern. Die gilt der Konkurrenz demnach als haushoch überlegen und wird an verschiedenen Stellen bereits benutzt. Anthropic hat da auch prinzipiell nichts dagegen, hat aber zwei rote Linien formuliert und will es der US-Regierung nicht erlauben, dass die eigene KI für die Massenüberwachung der US-Bevölkerung und zur Entwicklung von vollautonomen Waffen genutzt wird. Darauf wollte die US-Regierung nicht eingehen und anstatt deshalb lediglich die Verträge zu kündigen, hat sie drastische Maßnahmen ergriffen.
Die Einstufung als „Lieferkettenrisiko für die nationale Sicherheit“ bedeute, dass keine Firma, die Geschäfte mit dem US-Militär betreibt, mit Anthropic kooperieren darf, erklärt das KI-Unternehmen in der Klageschrift. Das müsse laut der US-Regierung umgehend umgesetzt werden, obwohl es widerrechtlich sei. Zuspruch hat Anthropic kurz nach Einreichung der Klage von einer Reihe von Angestellten konkurrierender KI-Firmen erhalten, die dazu als unbeteiligte Dritte ein sogenanntes Amicus Curiae bei Gericht eingereicht haben. Darin bezeichnen sie die Argumente von Anthropic als „legitim“ und die Handlungen der US-Regierung als einen „unangemessenen und willkürlichen Einsatz von Macht mit schwerwiegenden Folgen für unsere Branche“.
Anthropics KI-Software Claude ist ein scharfer Konkurrent von OpenAIs ChatGPT und während des Streits hieß es mehrfach aus dem US-Verteidigungsministerium, dass sie der Konkurrenz überlegen ist. Anthropic-Chef Dario Amodei hatte die roten Linien in einem Blogeintrag begründet und erklärt, dass KI über das Internet verstreute Daten einzelner Menschen in großem Stil automatisiert zu einem detaillierten Bild ihres Lebens zusammenfügen könne. Zudem sei die Technik noch nicht zuverlässig genug, um in vollständig autonomen Waffen eingesetzt zu werden. In dem Amicus Curiae wird jetzt noch darauf hingewiesen, dass alleine das Wissen um solche Fähigkeiten eine abschreckende Wirkung auf die demokratische Partizipation haben könnte.
Kritik am Vorgehen von OpenAI
Nach der Auseinandersetzung mit dem Pentagon hat OpenAI eine Vereinbarung mit dem Pentagon geschlossen. Sam Altman hat sich dabei zwar auf die Bedingungen eingelassen, später aber versichert, dass technische Hürden einen Einsatz zur Massenüberwachung verhindern würden. Trotzdem hat die Robotik-Chefin von OpenAI am Wochenende deshalb das Unternehmen verlassen. Mit den Risiken hätte sich OpenAI vorher besser auseinandersetzen müssen, kritisierte sie. Zudem haben Amazon, Google und Microsoft Anthropic den Rücken gestärkt. Ihre Kunden könnten Claude und andere Tools von Anthropic weiterhin mit den eigenen Werkzeugen nutzen, versicherten die Konzerne.
(mho)


