Anthropic hat gerade erst erklärt, dass man für seinen KI-Chatbot Claude dauerhaft auf Werbung verzichten werde. Doch aktuell geht es für den Anbieter um ein noch pikanteres Thema, nämlich um den militärischen Einsatz. So nutzt die US-Regierung Claude etwa hinter verschlossenen Türen und zeigt sich begeistert. Man würde den Einsatz gerne ausweiten bzw. intensivieren. Doch die Auflagen, die Anthropic dafür vorgesehen hat, passen dem umstrittenen US-Verteidigungsminister Pete Hegseth so gar nicht.
Anthropic will offenbar im Rahmen der Vereinbarung festlegen, dass Claude und andere KI-Techniken des Unternehmens nicht genutzt werden dürfen, um Massenüberwachung durchzuführen oder Waffen zu entwickeln, die ohne menschliches Zutun abgefeuert werden können. Dem Pentagon gehen diese Einschränkungen zu weit, da sie zahlreiche Grauzonen direkt aushebeln würden. Um Druck auf Anthropic auszuüben, soll Hegseth nun gedroht haben, sich nach Alternativen umzusehen und das US-Unternehmen gar als „Risiko für die Lieferketten“ einzustufen. Das wäre ein starkes Stück, denn da landen üblicherweise nur Firmen feindlicher Staaten wie China.
Das US-Verteidigungsministerium rechtfertigt das eigene Vorgehen laut Axios damit, dass man von Partnern erwarte, den US-Soldaten jede Möglichkeit zu geben, siegreich zu sein. Das sei essentiell für die Sicherheit der Truppen sowie der amerikanischen Bevölkerung. Allerdings dürfte ein Wechsel für die Behörden und das Militär kein Kinderspiel sein. Denn aktuell ist Claude von Anthropic das einzige KI-Modell, das in den USA mit Daten arbeiten darf, die der Geheimhaltung unterliegen.
Die Verhandlungen zwischen dem Pentagon und Anthropic sollen schon Monate laufen und nicht wirklich vorankommen. Anthropic ist wohl der Ansicht, dass die aktuelle US-Gesetzgebung für staatliche Überwachung KI nicht berücksichtigt und man deswegen vorsichtig sein sollte. Verkehrte Welt: Die US-Regierung scheint da weniger Skrupel zu haben. Sollte Anthropic dabei am Ende tatsächlich als Risiko für die Lieferketten eingestuft werden, hätte das enorme Folgen. Dann dürfte nämlich kein Unternehmen, das mit dem Pentagon kooperiert, mehr auf dessen Produkte setzen.
OpenAI, Google und xAI könnten da im Übrigen „moralisch flexibler“ sein, könnte man sagen. Die haben nämlich allesamt zugestimmt, ihre Beschränkungen aufzuheben, damit ihre KI-Tools für militärische Zwecke verwendet werden können. Aktuell kommen sie aber noch nicht für geheime Informationen zum Einsatz, was dann auch zu neuen Abkommen führen müsste.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

2 weeks ago
6



