KI erkennt KI-generierten Kindesmissbrauch: US-Polizei nutzt die Technik bereits

3 months ago 5

Generative KI hat die Produktion von Bildern, auf denen sexuelle Gewalt gegen Kinder gezeigt wird, anschwellen lassen. Nun experimentiert eine der führenden Ermittlungsstellen gegen Kindesmissbrauch in den USA laut einer neuen Regierungsvorlage selbst mit dem Einsatz von KI – aber diesmal, um KI-generierte Bilder von Material zu unterscheiden, das echte Opfer zeigt. Das Cyber Crimes Center des Heimatschutzministeriums, das Kindesmissbrauch international bekämpft, hat dazu einen Auftrag im Wert von 150.000 US-Dollar an das in San Francisco ansässige Unternehmen Hive AI vergeben. Dessen Software kann feststellen, ob ein Inhalt KI-generiert ist.

Die am 19. September veröffentlichte Unterlage ist stark geschwärzt. Kevin Guo, Mitbegründer und CEO von Hive, erklärte gegenüber der US-Ausgabe der MIT Technology Review nur, dass er keine Details zum Auftrag nennen könne. Er bestätigte jedoch, dass es um den Einsatz der KI-Erkennungsalgorithmen des Unternehmens für Material mit sexuellem Kindesmissbrauch (englischer Fachbegriff: CSAM) gehe. Das Regierungspapier zitiert Daten des National Center for Missing and Exploited Children, das für 2024 einen Anstieg der Vorfälle im Zusammenhang mit generativer KI um 1325 Prozent meldete. "Die schiere Menge an digitalen Inhalten, die online zirkulieren, erfordert den Einsatz automatisierter Tools, um solche Daten effizient zu verarbeiten und zu analysieren", heißt es weiter.

Die oberste Priorität der Ermittler im Bereich der Bekämpfung von sexueller Gewalt gegen Kinder liegt darin, aktuellen Missbrauch aufzudecken und zu unterbinden. Die Flut von KI-generiertem CSAM macht es ihnen jedoch schwer, zu erkennen, ob die Bilder echte Opfer zeigen, die derzeit in Gefahr sind. Ein Tool, das echte Opfer erfolgreich identifizieren könnte, wäre eine enorme Hilfe bei der Priorisierung von Fällen. Die Identifizierung von KI-generierten Bildern "stellt sicher, dass die Ermittlungsressourcen auf Fälle mit echten Opfern konzentriert werden, wodurch die Wirkung des Programms maximiert und gefährdete Personen geschützt werden", heißt es in dem Regierungspapier.

Hive AI bietet KI-Tools zur Erstellung von Videos und Bildern sowie eine Reihe von Tools zur Moderation von Inhalten, mit denen Gewaltinhalte, Spam und sexuelles Material gekennzeichnet und auch Prominente identifiziert werden können. Im letzten Dezember berichtete die US-Ausgabe von MIT Technology Review, dass das Unternehmen seine Deepfake-Erkennungstechnologie bereits an das US-Militär verkauft hat.

Zur Erkennung von CSAM bietet Hive ein Tool an, das in Zusammenarbeit mit Thorn, einer gemeinnützigen Organisation für Kinderschutz, entwickelt wurde und von Unternehmen in ihre Plattformen integriert werden kann. Dieses Tool verwendet ein "Hashing"-System, das Inhalten, die von Ermittlern als CSAM identifiziert wurden, eindeutige IDs zuweist und das Hochladen dieses Materials blockiert. Dieses Tool und andere ähnliche Tools sind zu Standardsystemen für Technologiefirmen geworden.

Diese Tools identifizieren jedoch lediglich einen Inhalt als CSAM; sie erkennen nicht, ob er durch KI generiert wurde. Hive hat daher ein weiteres Tool entwickelt, das feststellt, ob Bilder im Allgemeinen durch KI generiert wurden. Obwohl es laut Guo nicht speziell für die Arbeit mit CSAM trainiert wurde, funktioniert es. "Es gibt eine bestimmte Kombination von Pixeln in diesen Bildern, die wir als KI-generiert identifizieren können", sagt er. "Das lässt sich verallgemeinern."

Das neue Tool, so Guo, wird das Cyber Crimes Center zur Bewertung von CSAM einsetzen. Er fügte hinzu, dass Hive seine Erkennungstools für jeden spezifischen Anwendungsfall, den seine Kunden im Sinn haben, einem Benchmarktest unterzieht. Das National Center for Missing and Exploited Children, das sich an den Bemühungen zur Eindämmung der Verbreitung von CSAM beteiligt, reagierte allerdings zum Redaktionsschluss dieses Beitrags nicht auf Anfragen zur tatsächlichen Wirksamkeit solcher Erkennungsmodelle.

Die US-Regierung begründet die Vergabe des Auftrags an Hive AI ohne Ausschreibungsverfahren in dem Papier. Obwohl Teile dieser Begründung geschwärzt sind, bezieht sie sich in erster Linie auf zwei Punkte, die auch in einer Präsentation von Hive AI zu finden sind. Der eine betrifft eine Studie der University of Chicago aus dem Jahr 2024, in der festgestellt wurde, dass das KI-Erkennungswerkzeug vier andere Detektoren bei der Identifizierung von KI-generierten Materialien übertrumpfte. Der andere ist der Vertrag mit dem Pentagon zur Identifizierung von Deepfakes. Eine geplante Testphase des Hive-AI-Erkenners wird drei Monate dauern.

Dieser Beitrag ist zuerst auf t3n.de erschienen.

(jle)

Read Entire Article