
OpenAI verteilt eine neue Funktion, mit der ChatGPT das Alter seiner Nutzer einschätzen kann. Accounts, die vermutlich von Jugendlichen verwendet werden, bekommen automatisch einen Filter verpasst, der bestimmte Inhalte ausblendet. Zuletzt hatte damit unter anderem das Spiel Roblox von sich reden gemacht, nachdem die dortige, neue KI-Altersverifizierung für allerhand Ärger bei den Nutzern sorgte, weil Selfies von Jugendlichen und Erwachsenen zum Teil als Kinder eingestuft wurden und andersherum. OpenAI geht aber anders vor.
Bisher musste man bei der Registrierung für ChatGPT sein Geburtsdatum angeben, doch das war natürlich leicht zu umgehen. Jetzt setzt das Unternehmen auf ein System, das verschiedene Verhaltensmuster analysiert. Wie lange existiert der Account schon? Wann ist er hauptsächlich aktiv? Gibt es Muster in der Nutzung, die auf ein jüngeres Publikum hindeuten? All diese Faktoren fließen in die Einschätzung ein. Das Modell lernt dabei ständig dazu und verbessert seine Trefferquote. Falls das System sich nicht sicher ist oder wichtige Daten fehlen, wird der Account sicherheitshalber als minderjährig behandelt.
Jugendliche Nutzer bekommen dann eine gefilterte Version von ChatGPT präsentiert. Gewalthaltige Inhalte, Themen rund um Selbstverletzung oder Essstörungen, sexuelle oder gewaltverherrlichende Rollenspiele sowie gefährliche Internet-Challenges werden blockiert. Für erwachsene Nutzer ändert sich dagegen nichts, sofern sie korrekt eingestuft werden.
Natürlich kann auch dieses System danebenliegen. Wer als Erwachsener fälschlicherweise gefiltert wird, kann das in den Einstellungen überprüfen. Die Altersverifikation läuft dann über den Dienstleister Persona, bei dem man ein Selfie hochladen muss. Parallel dazu können Eltern auch manuell eingreifen und etwa festlegen, zu welchen Zeiten ChatGPT gesperrt sein soll oder ob die Chat-Verläufe fürs Training der KI genutzt werden dürfen.
In der EU wird die Funktion allerdings noch nicht ausgerollt. Hier soll es erst in den kommenden Wochen losgehen, um die regionalen Vorschriften einzuhalten. Gemeint ist damit wohl vor allem die DSGVO, die bei der automatischen Auswertung von Nutzungsmustern und der Einbindung externer Identitätsprüfer strenge Vorgaben macht. Wie OpenAI das rechtlich sauber hinbekommt, wird sich zeigen müssen.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

1 month ago
4


