20. November 2025 Marcus Schwarzbach
(Bild: FOTOGRIN / Shutterstock.com)
KI-Konzerne sammeln nicht nur Daten, sondern analysieren, wie Sie denken und formulieren – mit weitreichenden Folgen für Ihre Zukunft.
Künstliche Intelligenz (KI) ist im Privatleben und in der Arbeitswelt alltäglich geworden. Oftmals werden die Risiken dabei unterschätzt. Ein Kritikpunkt ist die strategische Einbindung der KI-Konzepte in die Unternehmensplanung.
Ein "KI-bezogenes Zukunftsbild" der Unternehmen fordern Heike Bruch und Mara Jordan von der Universität St. Gallen. "Nur 16 Prozent der befragten Unternehmen haben eine klare KI-Vision formuliert. Dabei ist es entscheidend, ein Zukunftsbild davon zu entwickeln, wie KI künftig eingesetzt werden soll und welche Rolle ihr dabei zukommt", bemängeln die Wissenschaftlerinnen die schlechte Vorbereitung vieler Manager.
Die Technik hat Folgen für die Beschäftigten. Schon heute werden Bewerbungen von Software vorsortiert. Die Gefahr ist groß, dass Personen, die durch ein KI-Raster fallen, gar keine Chance haben, zu einem Bewerbungsgespräch eingeladen zu werden. Etwa, da sie in einem Postleitzahlenbereich wohnen, der als problematisch hinterlegt ist.
Maschinen werden systematisch mit Informationstechnologie zur Steuerung und Überwachung ausgestattet. Kundendaten werden über Workflow-Management-Systeme verwaltet. Voraussetzung ist eine Datenbank, über die Daten der Kunden und einzelne Arbeitsschritte der Beschäftigten ausgewertet werden.
Die Vernetzung der IT-Systeme ermöglicht den Unternehmen eine dauernde Überwachung der Arbeitsleistung und des Verhaltens der Beschäftigten. Betriebsräte und Gewerkschaften versuchen, über Betriebsvereinbarungen gegenzusteuern. Häufig kommt das Gegenargument der Manager, dass die Menschen im Privatleben kein Problem mit Überwachung und Steuerung durch Technik haben.
Google-KI ermöglicht digitale Charakterbeschreibung
Wie weit Daten bei privater Nutzung genutzt und ausgewertet werden, zeigt die Entwicklung bei Google. Nach dem Start der „AI Overviews“ Ende März 2025 gibt es nun einen neuen Modus, durch den User in einen fortlaufenden Dialog mit der KI treten.
"Der Fokus verschiebt sich von der reinen Keyword-Suche hin zur Nutzerabsicht. Der AI Mode analysiert nicht nur, was gesucht wird, sondern auch, warum", warnen Rechtsanwalt Carl Christian Müller und Tori Gleisinger, beide tätig bei der Kanzlei Mueller.legal Rechtsanwälte in Berlin.
Der Tech-Konzern verfügt so nicht nur detaillierte Nutzerdaten aus Suchverläufen, Standortdaten oder Mails. „Neu ist im AI Mode jedoch, dass Google nun Zugang zu einer völlig anderen Datenkategorie erhält: der sprachlichen und kognitiven Ausdrucksform des Nutzers“, so die Juristen. Denn wer mit der KI kommuniziere, "verrät unweigerlich, wie er denkt, wie strukturiert, empathisch, unsicher oder ironisch er formuliert, welche Wortfelder er bevorzugt und welche Denkmuster seine Sprache prägen."
Dies ermögliche eine "digitale Charakterbeschreibung", die für automatisierte Einschätzungen genutzt werden kann – etwa um Bewerbungen zu beurteilen oder psychische Probleme als Risikofaktor für Versicherungen zu nutzen.
Mit einem Beispiel zeigen die Rechtsexperten weitgehende Folgen auf: Nutze eine Studentin die Google-Tools, um Hilfe bei der Formulierung eines Motivationsschreibens zu erhalten, erhält der US-Konzern aus den Dialogen wichtige personenbezogene Informationen.
"Kombiniert mit Standort- und Suchdaten (Universität, Wohnort, bisherige Bewerbungen) ergibt sich ein psycholinguistisches Kompetenzprofil, quasi ein digitales Abbild ihrer Ausdrucksfähigkeit, Motivation und möglicherweise sogar ihrer sozialen Herkunft. Wird ein solches Profil später in automatisierte Auswahlverfahren eingespeist oder für Zielgruppenwerbung genutzt, kann es zu subtiler Diskriminierung führen – ohne dass die Betroffene dieses Beispiels davon erfährt."
US-Konzerne handeln – EU-Kommission will Schutzrechte einschränken
Meta kündigte kürzlich an, seine KI mit den Nutzerdaten trainieren zu wollen. Diese Bekanntmachung des weltweit größten Social-Media-Konzerns sorgt für heftige Kritik. Denn es geht um digitale Selbstporträts mit Benutzernamen, Profilbildern, Bewertungen, Fotos oder Videos. "Wir sind nicht nur Frisch-Daten-Lieferanten", protestiert Johannes Caspar, Honorarprofessor an der Universität Hamburg.
Nutzer konnten bis zum 27. Mai 2025 widersprechen, um die Verwendung ihrer Daten für das KI-Training zu verhindern. Trainingsdaten sind der Treibstoff der neuen Technik. "KI-Systeme generieren synthetische Texte, Bilder und Narrative direkt aus Datenmustern und Wahrscheinlichkeiten. Soziale Interaktion, Bewusstsein, oder ein Bezug zur Welt ist dazu nicht mehr erforderlich", erläutert Caspar.
"Sind persönliche Daten einmal in das Räderwerk der KI-Modelle geraten, lassen sie sich, anders als Inhalte, die direkt auf den Plattformen eingegeben wurden, kaum mehr löschen. Das Recht auf Vergessenwerden löst sich auf."
Hoffnungen auf verbindliche Schutzstandards auf EU-Ebene werden enttäuscht. Denn derzeit sorgen Pläne der EU-Kommission für Aufregung. "Es geht um nicht weniger als eine Generalüberholung der europäischen Digitalregulierung", warnt netzpolitik.org. Erste Dokumente zeigen, dass der "Schutz an mehreren Stellen deutlich zurückgefahren werden soll, um mehr Datennutzung zu ermöglichen".
Überraschend ist dies kaum. Erst jüngst haben Wissenschaftler, die zur KI forschen, EU-Kommissionspräsidentin Ursula von der Leyen kritisiert. Sie hatte behauptet, KI werde sich schon nächstes Jahr dem menschlichen Denken annähern.
Statt „Marketingaussagen von US-Technologieunternehmen“ wiederzugeben, sollte die Kommission deren Behauptungen „sorgfältig prüfen“ und „unparteiisch und wissenschaftlich“ analysieren, fordern die Experten.



