
Anthropic hat einen Bericht veröffentlicht, der es in sich hat. Das Unternehmen wirft drei chinesischen KI-Laboren vor, im industriellen Maßstab Fähigkeiten von Claude abgegriffen zu haben, um damit die eigenen Modelle zu verbessern. Konkret nennt man DeepSeek, Moonshot und MiniMax. Dabei wurden über 16 Millionen Interaktionen über rund 24.000 betrügerische Konten generiert. Das verstößt nicht nur gegen die Nutzungsbedingungen, sondern umgeht auch regionale Zugangsbeschränkungen.
Die Labore nutzten laut Bericht eine Technik namens „Distillation“. Dabei wird ein weniger leistungsfähiges Modell mit den Antworten eines stärkeren Modells trainiert. Das ist grundsätzlich legitim, wenn man eigene Modelle verkleinern will, wird hier aber von der Konkurrenz missbraucht, um ohne die hohen Entwicklungskosten schnell aufzuholen. Das Risiko dabei ist laut Anthropic nicht nur wirtschaftlich: Solche kopierten Modelle verlieren oft die Sicherheitsmechanismen des Originals. Während US-Firmen versuchen, die Erstellung von Biowaffen oder Cyber-Attacken durch ihre KIs zu blockieren, fehlen diese Bremsen bei den destillierten Versionen angeblich oft komplett.
Bei den Kampagnen ging es laut dem Bericht sehr gezielt zu. DeepSeek generierte über 150.000 Interaktionen. Man wollte offenbar Claudes Denkprozesse (Chain-of-Thought) kopieren und trainierte das eigene Modell darauf, politisch heikle Themen zensursicher zu umgehen. Anhand von Metadaten konnten diese Aktionen sogar spezifischen Forschern zugeordnet werden. Moonshot brachte es auf über 3,4 Millionen Austausche, fokussiert auf Coding und Agenten-Fähigkeiten.
Am aggressivsten ging wohl MiniMax vor. Hier verzeichnete Anthropic über 13 Millionen Austausche. Das Ziel waren Coding-Fähigkeiten und die Nutzung von Tools. Interessant ist hier die Reaktionsgeschwindigkeit: Als Anthropic während der laufenden Attacke ein neues Modell veröffentlichte, schwenkte MiniMax innerhalb von 24 Stunden fast den kompletten Traffic um, um die neuesten Features abzugreifen.
Anthropic reagiert nun mit neuen Erkennungssystemen, die solche Muster im API-Traffic identifizieren sollen. Zudem wurden die Verifizierungen für neue Accounts verschärft und Informationen mit anderen KI-Laboren und Cloud-Anbietern geteilt. Man betont, dass dies ein branchenweites Problem ist, das nicht von einer Firma allein gelöst werden kann.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

1 week ago
3


