09. März 2026 Matthias Lindner
(Bild: Who is Danny / Shutterstock.com)
Eine neue Studie zeigt: Künstliche Intelligenz kann pseudonyme Nutzer auf Social Media mit hoher Trefferquote identifizieren. Was bedeutet das für Dich?
Wer unter einem Pseudonym in sozialen Netzwerken postet, fühlt sich oft sicher. Entsprechend wüst ist oft der Debattenstil.
Eine aktuelle Studie von Forschern der ETH Zürich und des KI-Unternehmens Anthropic zeigt jetzt: Große Sprachmodelle – die Technologie hinter ChatGPT und ähnlichen Tools – können anonyme Konten mit überraschender Genauigkeit echten Personen zuordnen.
Wie Künstliche Intelligenz deine Anonymität aushebelt
Die Forscher fütterten KI-Systeme mit anonymisierten Profilen, die auf Daten von echten Nutzern von Reddit und HackerNews basierten, und ließen sie das Internet nach passenden Identitäten durchsuchen.
Die Modelle analysierten dabei unstrukturierte Texte – also ganz normale Kommentare und Beiträge – und extrahierten daraus Hinweise wie Interessen, berufliche Details, Schreibstil oder geografische Angaben. Anschließend glichen sie diese Signale mit öffentlichen Profilen auf Plattformen wie LinkedIn ab.
Ein Beispiel der Forscher verdeutlicht das Prinzip: Ein Nutzer schreibt über Schulprobleme und Spaziergänge mit seinem Hund Biscuit durch einen bestimmten Park. Die KI sucht nach genau diesen Details auf anderen Plattformen und ordnet das anonyme Konto mit hoher Sicherheit einer realen Person zu.
In den Experimenten lag die Trefferquote bei bis zu 68 Prozent, die Genauigkeit korrekter Zuordnungen bei bis zu 90 Prozent.
Warum das alte Sicherheitsmodell nicht mehr funktioniert
Bislang schützte Pseudonymität vor allem deshalb, weil die Enttarnung enormen Aufwand erforderte. "Wenn Ihre operative Sicherheit erfordert, dass niemand jemals Stunden oder Tage damit verbringen darf, zu untersuchen, wer Sie sind, ist dieses Sicherheitsmodell nun hinfällig", sagte Studienautor Daniel Paleka gegenüber CyberScoop.
Aufgaben, für die menschliche Ermittler Stunden brauchten, erledigt Künstliche Intelligenz in wenigen Minuten – und das zu minimalen Kosten.
Grundlegende Recherchen wie das Durchsuchen der Online-Spuren einer Person nach Hinweisen auf Nationalität, Standort oder Arbeitsplatz schaffen die Modelle laut Paleka in "fünf Sekunden".
Hacker brauchen dafür nur Zugang zu öffentlich verfügbaren Sprachmodellen und eine Internetverbindung.
Konkrete Gefahren: Doxxing, Betrug und Überwachung
Die Forscher warnen vor mehreren Szenarien:
- Regierungen könnten Künstliche Intelligenz einsetzen, um Dissidenten und Aktivisten zu überwachen.
- Kriminelle könnten "hochgradig personalisierte" Betrugsversuche starten, sogenanntes Spear-Phishing, bei dem sich Angreifer als vertrauenswürdige Kontakte ausgeben.
- Unternehmen könnten detaillierte Marketingprofile erstellen.
Ein realer Fall zeigt bereits die Tragweite: Das KI-Tool Grok von xAI enthüllte kürzlich laut The Guardian den echten Namen und die Adresse einer Pornodarstellerin, die seit über einem Jahrzehnt unter Künstlernamen arbeitete. Ihre privaten Daten verbreiteten sich anschließend über das gesamte Internet.
Peter Bentley, Professor für Informatik am University College London (UCL), warnte zudem vor Fehlzuordnungen: "Menschen werden für Dinge beschuldigt werden, die sie nicht getan haben".
Je mehr du postest, desto leichter wirst du erkennbar
Die Studie belegt einen klaren Zusammenhang zwischen geteilten Informationen und Identifizierbarkeit.
Bei Nutzern, die in Film-Subreddits nur einen Film diskutierten, lag die Trefferquote bei rund drei Prozent. Bei mehr als zehn besprochenen Filmen stieg sie auf über 48 Prozent.
Selbst scheinbar harmlose Details summieren sich zu einem digitalen Fingerabdruck.
Was Nutzer und Plattformen jetzt tun sollten
Studienautor Simon Lermen empfiehlt Plattformen als ersten Schritt, den Datenzugriff einzuschränken: Ratenbeschränkungen für Downloads von Nutzerdaten, Erkennung von automatisiertem Scraping und Einschränkung des Massenexports.
Jacob Hoffman-Andrews von der Electronic Frontier Foundation betonte jedoch gegenüber CyberScoop, dass Nutzer nicht alle "Experten darin sein müssen, wie man einem wirklich engagierten Gegner ausweicht".
Für den Einzelnen bleibt vor allem eines: weniger persönliche Details teilen, Beiträge regelmäßig löschen und nicht dieselben Informationen auf mehreren Plattformen preisgeben.
Denn wie Marc Juárez, Dozent für Cybersicherheit an der Universität Edinburgh, gegenüber The Guardian sagte: "Diese Studie zeigt, dass wir unsere Praktiken überdenken sollten".



