29. Januar 2026 Marcus Schwarzbach
Softwareanbieter müssen künftig für fehlerhafte Programme haften – auch für KI. Das kann teuer werden und zwingt zu Updates.
Dass Roboter eine Erleichterung in Betrieb und Haushalt sind, ist Thema jeder Technik-Messe. Im Alltag zeigen sich jedoch häufig Probleme, die mit fehlerhafter Software zusammen hängen. Die Bundesregierung plant eine Neuerung, die für Unternehmer und Verbraucher große Auswirkungen haben kann.
Das Beispiel einer automatischen Sortieranlage macht dies deutlich: Läuft alles nach Plan, sortieren Roboter rotierende Metallkugeln, bewegen sie mithilfe von Magneten.
Das Risiko sind Angriffe von außen. Hacker könnten Schwachstellen der drahtlos übertragenen Software finden, um einen Industrieroboter zu übernehmen. Durch dieses Eingreifen könnten Kugeln, wie Pistolengeschosse, durch den Raum gefeuert werde, schildert Industrieanwalt Thomas Klindt von der Kanzlei Noerr die Risiken aus Firmensicht.
Durch eine Neuregelung kommen bedeutsame Haftungsfragen auf Softwareanbieter zu. Denn das Bundeskabinett hat im Dezember einen Gesetzentwurf zur Modernisierung des Produkthaftungsrechts beschlossen. Mit weitgehenden Folgen, wie Stefanie Hubig, Bundesministerin für Verbraucherschutz, betont:
"Wir machen die Haftung für Produkte fit für das digitale Zeitalter. Egal ob das Bügeleisen kaputt geht oder die Software spinnt, für Verbraucherinnen und Verbraucher ist der Schaden der gleiche. Deswegen erstrecken wir die Produkthaftung auf jede Art von Software – auch auf KI.
Und wir reagieren darauf, dass Produkte immer komplizierter werden: Wir wollen es Betroffenen erleichtern, einen Schaden bei fehlerhaften Produkten nachzuweisen."
Software fiel bislang nicht unter diese Haftungsregeln, weil sie kein greifbares Produkt ist. Eine neue EU-Richtlinie wird dies nun ändern. Wer durch ein fehlerhaftes Produkt geschädigt wird, soll künftig leichter Schadensersatzansprüche geltend machen können, betont das Ministerium.
Software soll künftig generell in die Produkthaftung einbezogen werden, egal, wie sie bereitgestellt und genutzt wird. Damit wird der Digitalisierung Rechnung getragen.
Produkthaftung kann sich entlang der Lieferkette ergeben und die Unternehmen Geld kosten. Ein Autobauer könnte etwa die Sensoren eines Lieferanten einbauen, die mit der Software eines weiteren Lieferanten betrieben werden. Versagen diese, bestehen erweiterte Möglichkeiten für Betroffene, betont Anwältin Stephanie Fay von der Kanzlei Freshfields:
"Diese können künftig wählen, ob sie den Autobauer, den Lieferanten der Sensoren als Zulieferer oder den Softwarehersteller in Haftung nehmen."
Die Anforderungen an die Unternehmen steigen so. Kamen bei einem Problem mit dem Bremssystem des Kfz bislang lediglich der Automobilhersteller und der Hersteller des Bremssystems für die Haftung in Betracht, fällt nun auch der Entwickler der Software für die Abstandskontrolle unter das Produkthaftungsrechts.
"Faktisch sind Softwareanbieter dann verpflichtet, für ihre Produkte nachträglich Updates bereitzustellen, um nicht für etwaige Schäden einstehen zu müssen."
Mathäus Mogendorf, Produkthaftungsanwalt
Wer durch ein fehlerhaftes Produkt einen Sachschaden oder eine Körperverletzung erleidet, soll es künftig in vielen Fällen einfacher haben, Schadensersatz vom Hersteller zu erlangen. "Wir reagieren darauf, dass Produkte immer komplizierter werden", betont Ministerin Hubig.
KI-Blackbox: Erklärbare KI sollen helfen
Die Bedeutung von KI in den Betrieben nimmt zu. Dabei wird KI nicht mehr nur zur Texterzeugung genutzt, sondern als Instrument zur Arbeitssteuerung oder Personalauswahl eingesetzt. Die Möglichkeiten, die KI im Arbeitsalltag eröffnet, wachsen schneller, als sich das nötige Wissen darüber aneignen lässt.
Artikel 4 der EU-KI-Verordnung verpflichtet Unternehmen zur Qualifizierung. KI-Nutzer müssen geschult werden, um die Risiken einschätzen zu können. Darüber sind sich Experten einig. Bis heute wird die Vorgabe in vielen Betrieben ignoriert.
Auch die KI-Blackbox beschäftigt Wissenschaftler. Das Problem ist der Mangel an Transparenz bei den Entscheidungsprozessen von KI-Systemen. Die Logik der KI ist für den Menschen oft nicht nachvollziehbar.
Dharmil Mehta, wissenschaftlicher Mitarbeiter bei Fraunhofer IAO in Stuttgart, beschreibt die Problematik so:
"Stellen Sie sich vor, Sie beantragen einen Kredit, und Ihr Antrag wird von einem KI-gesteuerten Kreditscoring-System abgelehnt. Sie fragen sich, warum Ihr Antrag abgelehnt wurde, aber das System liefert keine Erklärung. Dieser Mangel an Transparenz kann zu Frustration und Misstrauen gegenüber KI-Systemen führen."
Methoden aus dem Bereich der Erklärbaren KI (XAI) sollen weiterhelfen. "XAI zielt darauf ab, dieses Problem durch die Entwicklung von Methoden und Werkzeugen zu lösen, die einen Einblick in den Entscheidungsprozess eines KI-Modells ermöglichen", beschrieb Dharmil Mehta schon vor Jahren. Neben Transparenz ist dabei die Rechenschaftspflicht bedeutsam:
"Wenn KI erklärbar ist, wird es einfacher, Fehler, Vorurteile oder unbeabsichtigte Folgen zu erkennen."
Eine der einfachsten Erklärungsmethoden besteht darin, die einflussreichsten Variablen zu ermitteln, auf die sich ein KI-Modell stützt, um Vorhersagen zu treffen.
XAI-Befürworter stehen jedoch vor großen Herausforderungen, denn häufig muss ein Kompromiss zwischen Modellkomplexität und Erklärbarkeit gefunden werden. Die Vereinfachung eines Modells aus Gründen der Interpretierbarkeit kann zu einer geringeren Leistung führen, so der Stuttgarter Wissenschaftler.
Auch die Skalierbarkeit ist ein großes Problem, denn kleinere Deep Learning-Modelle sind oft beschreibbar:
"Aber der Fortschritt in der KI, wie z.B. Large Language Models LLM, hat die Aufgabe der XAI komplexer und schwieriger gemacht."
Dharmil Mehta
Das größte Problem ist jedoch Firmenegoismus: IT-Unternehmen werden ihre Geschäftsmodelle kaum publik machen, sondern vielmehr die Offenlegung von Daten mit dem Verweis auf "Betriebsgeheimnisse" ablehnen.
Per Software wird die Belegschaft ständig überwacht und bewertet
Eine weitere Folge der neuen Technik wird in den Medien selten dargestellt. Die Auswirkungen erleben Beschäftigte in den Betrieben täglich. In vielen Firmen sind technisch-organisatorische Veränderungen im Gange, die seit Langem aus Callcentern bekannt sind. Die Technik ermöglicht es, die Belegschaft ständig zu überwachen, zu bewerten und zu steuern.
Ein Element ist die automatisierte Arbeitsverteilung. In Bereichen mit Kundenkontakt haben die Arbeitenden keinen Einfluss mehr auf die Entscheidung, welche Arbeitsvorgänge sie übernehmen.
Stattdessen wird die eingehende Arbeit automatisiert durch Workflowsysteme in persönliche Arbeitskörbe verteilt und die Bearbeitung sekundengenau kontrolliert.
Mithilfe statistischer Erhebungen und Vorhersagen des Arbeitsanfalls und Kundenverhaltens sollen stundentaktgenaue Vorgaben des Arbeitsvolumens ermittelt werden, um Dienstpläne und die Verteilung der Arbeitszeiten bis hin zur Lage der Pausen zu steuern.
Und die Daten werden zur Geschäftsprozessoptimierung genutzt. Der Geschäftsprozess beginnt mit der Kundenanfrage und reicht bis zur Feststellung der Kundenzufriedenheit. Gemessen werden etwa die Bearbeitungsdauer, Gesprächsdauer, Wartezeiten, Antwortzeiten, Prozessdurchlaufzeiten oder Service Level.
Auf dieser Basis werden die Prozesse ständig gemessen, standardisiert und durch Zeitvorgaben kontrolliert.
In vielen Verwaltungsbereichen gibt es durch die neue Technik Formen der Arbeitsorganisation, die stark auf Fremdsteuerung setzen. Die Arbeitsschritte sind stark zergliedert und den Beschäftigten wird nur wenig Entscheidungsspielraum geben. Demotivation ist die Folge.



