19. März 2026 Kai Imhoff
(Bild: Oselote / Shutterstock.com)
Zwei Fälle zeigen, wie KI-Systeme bei der Polizei zu gravierenden Fehlern führen. Eine Frau saß monatelang unschuldig im Gefängnis.
Künstliche Intelligenz hält zunehmend Einzug in die Polizeiarbeit – von Chatbots für Recherchen bis hin zur Gesichtserkennung.
Doch zwei aktuelle Fälle aus Großbritannien und den USA zeigen, welche Konsequenzen drohen, wenn Ermittler die Ergebnisse automatisierter Systeme nicht ausreichend überprüfen.
Erfundenes Fußballspiel in britischem Polizeibericht
In England sorgte ein Vorfall bei der Polizei der West Midlands für Aufsehen. Beamte nutzten Microsofts Chatbot Copilot, um Hintergrundinformationen für eine Sicherheitsbewertung vor einem Fußballspiel von Aston Villa zusammenzustellen.
Der Chatbot lieferte dabei Angaben über angebliche Ausschreitungen bei einem Spiel von West Ham – einem Spiel, das nie stattgefunden hatte.
Diese frei erfundenen Informationen flossen in die Briefing-Unterlagen ein und beeinflussten die Risikoeinschätzung. Auf dieser Grundlage verwehrte die Polizei Fans von Maccabi Tel Aviv den Zutritt zum Stadion.
Ein offizieller Bericht des britischen Innenausschusses stellte später fest, dass das Problem nicht allein die sogenannte Halluzination des Chatbots war, sondern wie leichtfertig die Angaben als Fakten übernommen wurden.
Der damalige Polizeichef Craig Guildford erklärte vor dem Ausschuss zunächst, seine Beamten hätten keine KI eingesetzt – und korrigierte diese Aussage erst später schriftlich.
Die Abgeordneten warfen ihm daraufhin mangelnde Sorgfalt vor. Guildford ging mittlerweile in den Ruhestand und die Polizei schaltete Copilot organisationsweit ab.
Unschuldig im Gefängnis durch fehlerhafte Gesichtserkennung
Noch drastischer traf es Angela Lipps aus Tennessee. Die 50-jährige Großmutter verbrachte fast sechs Monate im Gefängnis, weil eine Software der Polizei in Fargo, North Dakota, die zur Gesichtserkennung genutzt wurde, sie fälschlicherweise als Bankbetrügerin identifizierte.
Lipps war noch nie in North Dakota gewesen und noch nie geflogen. Dennoch nahmen US-Marshals sie im Juli mit vorgehaltener Waffe fest, während sie auf vier kleine Kinder aufpasste. Als mutmaßliche Flüchtige erhielt sie keine Kaution. Über fünf Monate lang sprach kein einziger Ermittler aus Fargo mit ihr.
Erst als ihr Pflichtverteidiger Jay Greenwood Kontoauszüge vorlegte, wurde klar: Lipps befand sich zur Tatzeit mehr als 1.900 Kilometer entfernt in Tennessee und tätigte dort alltägliche Einkäufe.
An Heiligabend stellte die Staatsanwaltschaft das Verfahren ein. Lipps saß daraufhin mittellos in Fargo fest – ohne Winterkleidung bei Schnee und Kälte. Die Polizei übernahm keine Kosten für ihre Heimreise.
Lokale Strafverteidiger sammelten Geld für ein Hotelzimmer. Durch die monatelange Haft verlor Lipps ihr Haus, ihr Auto und ihren Hund. Eine Entschuldigung der Polizei blieb aus.
Wachsende Debatte über KI-Kontrolle bei Behörden
Beide Fälle treffen einen Nerv: Die britische Regierung plant derzeit 115 Millionen Pfund für ein nationales KI-Zentrum für die Polizeiarbeit. Der Copilot-Vorfall wirft die Frage auf, ob die nötigen Kontrollmechanismen mit dem Tempo der Einführung Schritt halten.
Der Innenausschuss fordert die Polizei auf, ihre Transparenz wiederherzustellen und deutlich vorsichtiger damit umzugehen, welche Quellen sie als verlässlich einstuft.
Beide Fälle verdeutlichen ein gemeinsames Grundproblem: Künstliche Intelligenz liefert Ergebnisse, die professionell wirken, aber grundlegend falsch sein können. Ohne menschliche Überprüfung riskieren Behörden Fehlentscheidungen mit schwerwiegenden Folgen für Einzelne.



