18. Januar 2026 Bernardo Cantz
(Bild: MMD Creative / Shutterstock.com)
Computer lesen aus der Stimme bald Gesundheit, Bildung und politische Haltung heraus – selbst wenn man gar nicht direkt mitredet.
Wenn man mit einem Freund spricht, merkt man in der Regel schnell, wie es ihm geht. Denn seine Tonlage reicht schon oft, um seine Gemütslage zu erkennen, ob er glücklich oder traurig ist, ob er voller Energie oder ausgebrannt ist.
Was Menschen intuitiv erfassen, können Computer inzwischen auch – und schon bald werden sie vermutlich in der Lage sein, noch mehr aus unserer Stimme herauszulesen. Das wirft grundlegende Fragen zum Schutz der Privatsphäre auf.
Warum Sprachdaten so viel über uns verraten
"Wenn jemand spricht, sind im Sprachsignal viele Informationen über seine Gesundheit, seinen kulturellen Hintergrund, seinen Bildungsstand und so weiter enthalten", erklärt Tom Bäckström, Professor für Sprachtechnologie an der Aalto-Universität.
Diese Informationen werden, so führt er weiter aus, mit der Sprache übertragen, auch wenn die Menschen sich dessen nicht bewusst sind.
Subtile Muster in der Intonation oder Wortwahl können Hinweise auf politische Präferenzen geben. Merkmale in der Atmung oder Stimmqualität lassen sich mit bestimmten Gesundheitszuständen in Verbindung bringen. Computer analysieren solche Signale bereits heute – und die Technologie wird stetig präziser.
Besonders brisant: Auch Menschen, die selbst keine Sprachdienste nutzen, können betroffen sein. Ihre Stimme kann als Hintergrundgeräusch in Aufnahmen anderer erfasst werden.
Welche Gefahren drohen
Diese Technologie bietet ganz neue Ansätze zur Überwachung oder für die Bewertung von Verhalten. Aus Sprachaufzeichnungen gewonnene medizinische Informationen etwa könnten Versicherungsprämien beeinflussen oder zur gezielten Vermarktung von Medikamenten genutzt werden.
Oder Werbung könnte den emotionalen Zustand eines Nutzers ausnutzen, um höhere Preise durchzusetzen.
Ferner drohen persönliche Angriffe: Belästigung, Stalking, Erpressung oder öffentliche Bloßstellung. Arbeitgeber könnten aus Sprachaufzeichnungen persönliche Informationen extrahieren, um Mitarbeiter zu überprüfen oder Bewerber zu durchleuchten. Ex-Partner könnten solche Tools zum Stalking oder zur Belästigung nutzen.
"Die Angst vor Überwachung oder der Verlust der Würde, wenn Menschen das Gefühl haben, ständig überwacht zu werden – das ist psychologisch bereits schädlich", warnt Bäckström.
Wie Forscher den Schutz verbessern wollen
Um Missbrauch zu verhindern, ist Schutz notwendig. Wer in Zukunft nicht auf ein Telefonat oder einen Videocall verzichten möchte, wird wahrscheinlich Filter anwenden müssen, die nur noch unbedingt notwendige Informationen durchlassen.
Ein zentraler Ansatz besteht laut Bäckström darin, private Informationen herauszufiltern, bevor sie weitergegeben werden. Sprache kann lokal auf einem Telefon oder Computer verarbeitet werden, anstatt an die Cloud gesendet zu werden.
Akustische Technologien können eingesetzt werden, um sicherzustellen, dass Geräusche nur an einem bestimmten Ort aufgezeichnet werden oder dort hörbar sind. Kryptografische Verfahren ermöglichen es, Sprachdaten zu verschlüsseln, sodass sie nur von autorisierten Empfängern verarbeitet werden können.
Im Jahr 2019 gründeten Bäckström und einige andere ein internationales Forschungsnetzwerk zum Thema Datenschutz und Sicherheit in der Sprachtechnologie. Das Team hat kürzlich ein Tool veröffentlicht, das eine der grundlegenden Fragen des Fachgebiets beantworten kann: Wie viele Informationen sind in einer Sprachaufzeichnung enthalten?
Bäckström erklärt:
"Um den Datenschutz zu gewährleisten, legt man fest, dass nur eine bestimmte Menge an Informationen preisgegeben werden darf, und entwickelt dann ein Tool, das dies garantiert. Bei Sprache wissen wir jedoch nicht wirklich, wie viele Informationen darin enthalten sind"
Die neue Metrik erfasst erstmals, wie viele Informationen in einem Audioclip enthalten sind. Sie ermöglicht es, die Identität eines Sprechers anhand der Merkmale einer Aufzeichnung einzugrenzen – etwa anhand der Tonhöhe oder des sprachlichen Inhalts.
Was Nutzeroberflächen leisten müssen
Datenschutz ist nicht nur eine technische Frage, sondern auch eine Frage der Psychologie und Wahrnehmung der Nutzer sowie der Gestaltung der Benutzeroberfläche.
"Die Benutzeroberfläche sollte Möglichkeiten bieten, um zu kommunizieren, wie privat eine Interaktion ist", sagt Bäckström.
Sie sollte auch die Kompetenz oder Zuverlässigkeit des Systems vermitteln, um versehentliche Informationslecks oder falsche Aktionen zu verhindern. "Die angemessene Kommunikation dieser Dinge trägt dazu bei, langfristiges Vertrauen in einen Dienst aufzubauen", fügt er hinzu.
Für Bäckström muss die Berücksichtigung von Datenschutzbelangen keine Belastung sein, sondern kann sogar zur Verbesserung eines Produkts oder einer Dienstleistung beitragen. Wenn etwa private Informationen aus der Sprache entfernt werden, werden weniger Daten übertragen, was den Netzwerkverkehr verringert und die Kosten senkt.
"Wir betrachten Datenschutz und Nutzen oft als gegensätzliche Kräfte, aber viele Datenschutztechnologien haben auch Vorteile für den Nutzen", schließt er.



