01. März 2026 Marcus Schwarzbach
Betrüger täuschen mit KI-Deepfakes ganze Videokonferenzen vor – und erbeuten so Millionen von ahnungslosen Mitarbeitern.
Neue IT-Systeme bestimmen vielerorts den Arbeitsalltag, in der Praxis kommt es bei der Anwendung aber oft zu Problemen. Künstliche Intelligenz ist weit verbreitet. 40 Prozent der Unternehmen hierzulande nutzen bereits KI, 21 Prozent planen den Einsatz in naher Zukunft.
Das ergab eine Untersuchung des "Instituts für Lernen und Innovation in Netzwerken" der Hochschule Karlsruhe, dabei wurden mittelständische Unternehmen mit 20 bis 500 Beschäftigten befragt.
Das verändert die Anforderungen an die Beschäftigten. Von Umbrüchen am Arbeitsmarkt spricht das Institut für Arbeitsmarkt- und Berufsforschung. "So würden durch KI etwa 1,6 Millionen Stellen in den nächsten 15 Jahren entweder wegfallen oder neu entstehen, was auf deutliche Verschiebungen in einzelnen Wirtschaftsbereichen hinweist. Die Gesamtzahl der Arbeitsplätze bliebe gegenüber dem aktuellen Entwicklungspfad weitgehend stabil", lautet das Szenario.
Bereits im Privatleben zeigen sich Veränderungen. ChatGPT ist eine "der größten Erzähl-, um nicht zu sagen Quatsch-Maschinen dieser Welt geworden", bemängelt Kulturkritiker Georg Seeßlen in der Zeitschrift Informationszentrum 3. Welt:
"Wie jener Nachbar, den wir ganz nett, aber meistens nervig finden, hat sie zu allem etwas zu sagen. Sie findet auf jede, selbst eine rhetorische Frage, eine Antwort und gibt sich dabei – einigen symptomatischen Ausfällen zum Trotz – mehr oder weniger diplomatisch. Sie steht halt drüber, die große metaphysisch-technische Klugscheißerin. Chatbots waren wirklich nur unterhaltsam, so lange sie neu waren."
Bei Haftungsfragen noch vieles unklar
In den Betrieben wird die Technik zunehmend zur Arbeitssteuerung eingesetzt. Arbeitsrechtsexperten warnen vor unregulierten Bereichen. "Künstliche Intelligenz verändert die Arbeitswelt rasant. Damit Chancen genutzt und Risiken vermieden werden, braucht der Einsatz von KI im Betrieb klare Regeln", betont Eva-Maria Stoppkotte, Redakteurin der Fachzeitschrift Arbeitsrecht im Betrieb.
Die rechtlichen Folgen sind oft unklar. Gerade beim KI-Einsatz stellt sich die Frage, wer bei Schäden haftet. Die Europäische Union hat versucht, mit dieser Entwicklung Schritt zu halten und 2024 die Verordnung über KI erlassen (KI-Verordnung). "Allerdings sind insbesondere viele Haftungsfragen ungeklärt, nachdem die EU-Kommission den Entwurf einer KI-Haftungsrichtlinie zurückgezogen hat", bemängeln Dr. Nadine Kramer und Dominik Süß von der Wirtschaftskanzlei Covington & Burling in der Legal Tribune Online.
Zunächst sei jedoch das Unternehmen verantwortlich, "denn beim Einsatz von KI-Systemen trifft den Betreiber, hier also den Arbeitgeber, der das Unternehmerrisiko trägt und daher für die Organisation seines Betriebs und der Arbeitsmittel verantwortlich ist, unter anderem die Sorgfaltspflicht, deren Einsatz zu organisieren".
Dazu gehöre auch die Schulungspflicht nach Artikel 4 der KI-Verordnung: Arbeiten Beschäftigte mit KI, hat das Unternehmen KI-Kompetenz zu vermitteln.
"Die Schulungspflicht nach der KI-Verordnung wirkt sich also auf sämtliche Haftungsverhältnisse mit Arbeitnehmerbezug aus. Ihre Einhaltung ist daher essenziell. Problematisch ist, dass die KI-Verordnung keine konkreten Vorgaben macht, wie die Schulungen durchzuführen sind."
Nadine Kramer, Dominik Süß
Angst vor Deepfakes
Schwieriger werden Haftungsthemen bei Hackerangriffen. Große Sorge besteht bei Deepfakes, die derzeit das Internet fluten. Erfundene Videosequenzen können Menschen in verfänglichen Situationen zeigen. Für den Betrug per Telefon gibt es Tools wie ElevenLabs, Resemble.ai oder Speechify, mit denen durch wenige Minuten Sprachmaterial synthetische Stimmen möglich werden.
Laut Digitalverband Bitkom führen Deepfakes bei vielen Menschen zu Verunsicherung. Denn der Laie kann die Realität oft nicht von Fake unterscheiden. Acht von zehn Deutschen (81 Prozent) sagen, sie würden ein Deepfake nicht erkennen. 44 Prozent geben an, schon einmal auf ein Deepfake reingefallen zu sein. 70 Prozent sind der Meinung, Fotos und Videos könne man heute nicht mehr vertrauen und 63 Prozent sagen sogar, Deepfakes machen ihnen Angst.
Im betrieblichen Alltag können die manipulierten Inhalte betrügerischen Absichten dienen. Für Unternehmen kann dies zu einer ernsthaften Bedrohung werden. Ein Trend ist CEO-Fraud – eine Betrugsmasche, bei der Täter sich als Leiter eines Unternehmens (CEO) ausgeben, um vertraulich Zahlungen zu erhalten:
Ein Angestellter erhält die Nachricht des vermeintlichen Finanzvorstand mit der Aufforderung, Geld auf ein Konto zu überweisen. Und zwar ohne im Betrieb andere davon zu informieren. Ist die Person misstrauisch gegenüber dieser geheimen Transaktion, werden weitere Aktionen vorgenommen. Täter nutzen "Social Engineering", um Vertrauen zu erwecken und die Opfer zur unauffälligen Ausführung zu drängen. Dies kann ein Videotelefonat mit mehreren vertrauten Ansprechpartnern sein oder auch eine Schaltung in eine Besprechung von Führungskräften an einem anderen Ort. Meist wird mit Zeitdruck gearbeitet. Für den Beschäftigten alleine wird es schwer, dies alles zu überprüfen.
"Die Täter gehen meist sehr geschickt vor, indem sie sich zunächst möglichst viele Informationen über das Unternehmen und die Strukturen des Unternehmens verschaffen. Ein Augenmerk legen die Täter dabei auf Angaben zu Geschäftspartnern und künftigen Investments, E-Mail-Erreichbarkeiten oder auch Informationen in sozialen Netzwerken zu Mitarbeitern des Unternehmens. […]
So gelingt es ihnen regelmäßig, auch erfahrene Mitarbeiter zur Überweisung hoher Beträge zu bewegen. Der Schaden beträgt inzwischen mehrere Millionen Euro."
Diese Szenarien sind keinesfalls Übertreibungen. So haben bereits 2024 Betrüger in Hongkong 23 Millionen Euro mithilfe einer vorgetäuschten Videokonferenz erbeutet. Sie umgingen die Schwächen der Technik mit der "Chef-Masche": Kriminelle geben sich als hochrangige Manager aus, um hohe Geldtransfers zu veranlassen. Der gesamte Finanzvorstand wurde in dieser digitalen Konferenz per Fake zugeschaltet.



