OpenAI hat mit dem Privacy Filter ein quelloffenes Modell veröffentlicht, das persönliche Daten in Texten erkennen und unkenntlich machen soll.
Laut OpenAI richtet sich Privacy Filter an Teams, die große Mengen an Text bereinigen wollen, bevor diese weiterverarbeitet werden, etwa zum Training eigener KI-Modelle oder zur Weitergabe an Dritte. Das Modell ist mit 1,5 Milliarden Parametern vergleichsweise klein, nutzt pro Anfrage nur 50 Millionen aktive Parameter und läuft nach Angaben von OpenAI auch auf einem Laptop oder direkt im Browser. Der Einsatz auf eigener Hardware ohne Cloud-Anbindung ist ausdrücklich vorgesehen.
Das Modell erkennt acht Kategorien von sensiblen Inhalten: Namen, Adressen, E-Mail-Adressen, Telefonnummern, URLs, Datumsangaben, Kontonummern und sonstige Geheimnisse wie Passwörter oder API-Schlüssel. Anders als klassische Chatbots erzeugt das Modell keinen neuen Text, sondern markiert in einem Durchgang, welche Stellen im Eingabetext zu welcher Kategorie gehören. Das Kontextfenster von 128.000 Token erlaubt es laut OpenAI, auch lange Dokumente ohne Aufteilung zu verarbeiten.
Nutzerinnen und Nutzer können über Voreinstellungen steuern, ob das Modell eher vorsichtig schwärzt (hohe Trefferquote, mehr Fehlalarme) oder zurückhaltender arbeitet (weniger Fehlalarme, dafür mehr übersehene Stellen). Wer eigene Datensätze hat, kann das Modell zusätzlich feinjustieren.
Es steht unter der Apache-2.0-Lizenz auf GitHub und Hugging Face und darf auch kommerziell eingesetzt werden.
Kein Ersatz für echte Anonymisierung
OpenAI betont ausdrücklich, dass der Privacy Filter keine rechtliche Anonymisierungs- oder Compliance-Garantie darstellt. Das Modell soll nur eine Schicht in einem umfassenderen Datenschutzkonzept sein. Als Schwächen nennt OpenAI selbst: seltene oder regional untypische Namen würden häufiger übersehen, öffentlich bekannte Personen oder Organisationen gelegentlich fälschlich geschwärzt, und die Leistung sinke bei nicht-englischen Texten oder nicht-lateinischen Schriften.
Für sensible Einsatzgebiete wie Medizin, Recht, Finanzen oder Personalwesen empfiehlt OpenAI ausdrücklich, menschliche Prüfung beizubehalten. Die Label-Kategorien lassen sich zur Laufzeit zudem nicht verändern. Wer eine abweichende Policy benötigt, muss das Modell nachtrainieren.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den "KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.



