29. Dezember 2025 Stavroula Pabst
3D-Rendering eines unbemannten Marinekampfschiffs: Die Technologie wirft ethische Fragen auf
(Bild: Andrey VP/Shutterstock.com)
Die US-Marine setzt verstärkt auf autonome Schiffe im Kampfeinsatz. Doch was passiert, wenn die KI eine fatale Fehlentscheidung trifft? Ein Gastbeitrag.
Die ukrainischen Magura-Drohnenboote haben beachtliche Erfolge gegen russische Marinekräfte im Schwarzen Meer erzielt – trotz der äußerst begrenzten Ressourcen der ukrainischen Marine.
Sie versenken Kriegsschiffe durch "Kamikaze"-ähnliche Angriffe, attackieren kritische Infrastruktur und operieren in Schwärmen, um feindliche Verteidigungen zu überwältigen.
Das Pentagon will sein Stück vom Kuchen
Diese autonomen maritimen Fahrzeuge erleben derzeit ihren Durchbruch – und sowohl das Pentagon als auch die Rüstungsindustrie wollen ein Stück vom Kuchen.
Unsere Gastautorin Stavroula Pabst.
(Bild: RS)Mit Kapital von Risikoinvestoren und zunehmend auch vom US-Verteidigungsministerium, das Verträge über Hunderte Millionen Dollar vergeben hat, arbeiten Verteidigungs-Start-ups wie Saronic, BlackSea und Blue Water Autonomy an einer neuen Generation autonomer und teilautonomer Schiffe.
Diese Fahrzeuge reichen von drohnenartigen Kleinbooten bis hin zu mehreren dutzend Meter langen, unbemannten Großschiffen (Large Unmanned Surface Vehicles, LUSVs) und sogar U-Booten.
Aufgrund ihrer Vielfalt – vom taktischen Überwassergerät bis zum strategischen Unterwassersystem – verfügen sie über zahlreiche Fähigkeiten, darunter Überwachung und Patrouillen, Transport von Fracht und Nutzlasten sowie zunehmend auch tödliche Fähigkeiten in kinetischen Kontexten wie dem Abfeuern von Waffen, der Abwehr von Raketen oder gar Selbstangriffen auf Ziele.
Ein Mensch in der Entscheidungsschleife kann solche Einsätze aus der Ferne steuern. Befürworter preisen diese neue Generation autonomer und teilautonomer Schiffe als Möglichkeit, militärisch zu agieren, ohne Menschenleben zu riskieren, und zugleich die Flottenbedürfnisse der Marine zu erfüllen – und das alles zu geringeren Kosten als bei bemannten Schiffen.
Doch angesichts fortbestehender technischer Herausforderungen, der zweifelhaften Erfolgsbilanz von KI im militärischen Einsatz und der Sorge, dass ihre Präsenz in umstrittenen Gewässern Konflikte eher eskalieren lassen könnte, müssen Beschaffungsprogramme für solche Systeme mit äußerster Vorsicht voranschreiten.
Autonome Flotten: kostengünstig und ohne Risko?
Befürworter stellen KI-gesteuerte Schiffe als Mittel dar, um militärisch zu handeln, ohne Menschenleben zu gefährden, und das bei geringeren Kosten, während sie zugleich andere Flottenanforderungen erfüllen.
So schreiben die Rand-Analysten Kanna Rajan und Karlyn Stanley, dass unbemannte Fahrzeuge gefährliche Missionen übernehmen könnten, etwa Versorgungsflüge in Kriegszonen, wodurch bewaffnete Dienstkräfte aus der Gefahrenzone gehalten würden.
Dan Grazier, Senior Fellow und Direktor des Programms für nationale Sicherheitsreform am Stimson Center, sagte gegenüber RS, autonome Schiffe könnten in Situationen kinetischer Konflikte besondere Aufgaben erfüllen, beispielsweise beim Durchbrechen feindlicher Gebietsabschirmung. Langstreckenwaffen, die bemannte Schiffe abschrecken würden, stellen für "entbehrliche" unbemannte Schiffe kein gleiches Risiko dar.
Grazier führte weiter aus, dass unbemannte Systeme das aktuelle Flottendefizit, das durch gescheiterte Beschaffungsprogramme verursacht wurde, kostengünstig verringern könnten:
Die Flotte der US Navy schrumpft tatsächlich […] vor allem wegen gescheiterter Großprojekte wie dem Littoral Combat Ship (LCS) oder der Zumwalt-Klasse […] Wenn US-Unternehmen funktionierende unbemannte Systeme herstellen könnten, die große bemannte Schiffe ersetzen, dann wäre das ein entscheidender Schritt zur Lösung des Flottengrößenproblems.
Unerwünschte Folgen mit Sprengkraft
Doch praktische, ethische und sicherheitstechnische Probleme überschatten den Einsatz dieser Schiffe weiterhin. Zunächst bestehen technische Hürden: So führten Kombinationen aus Fehlfunktionen und menschlichem Versagen dazu, dass kleine autonome US-Schiffe bei Tests zusammengestoßen sind.
Während kleinere Drohnenboote im Schwarzen Meer bereits im Einsatz waren, gelten mittelgroße und große Schiffe (LUSVs), an denen seit Jahren gearbeitet wird, als weitaus komplexere Herausforderung für die US-Rüstungsindustrie.
"An USV- und LUSV-Projekten wird seit etwa zehn Jahren gearbeitet", sagte Michael Klare, Professor emeritus für Friedens- und Sicherheitsstudien am Hampshire College und Senior Visiting Fellow der Arms Control Association.
"Es gab aufwendige Tests, doch die KI-Systeme funktionieren noch immer nicht so, dass die Schiffe völlig autonom operieren könnten. Die Technologie ist schlicht noch nicht ausgereift genug, um in echten Kampfeinsätzen genutzt zu werden."
Die geopolitische Dimension
Darüber hinaus könnte die Stationierung solcher Schiffe in feindlichen Gewässern Spannungen unter ohnehin fragilen geopolitischen Bedingungen verschärfen – etwa im Südchinesischen Meer, wo es jüngst mehrere Zwischenfälle gab. "Chinesische Verteidigungsbeamte müssen immer mit dem schlimmsten Szenario rechnen – das macht eine Krise noch unberechenbarer", so Klare.
"Sie wissen nicht genau, was unbemannte gegnerische Schiffe tun, wo sie sich befinden – also müssen sie vom Schlechtesten ausgehen. In solchen Momenten gerät die Eskalationskontrolle leicht außer Kontrolle, sodass es zu unbeabsichtigten Zwischenfällen kommen kann."
Peter Asaro, Sprecher der Initiative "Stop Killer Robots", äußerte Zweifel daran, dass autonome Schiffe zivile und militärische Ziele zuverlässig unterscheiden können.
Dieses Risiko ist bereits Realität: Im Februar setzte die US Navy autonome Segeldrohne Voyagers bei der Drogenbekämpfung in der Karibik ein – in einer Operation, die unter der Trump-Regierung verschärft wurde. Sollte ein solches Schiff Zivilisten fälschlich für Schmuggler halten, könnte das zu unbeabsichtigten Angriffen und gefährlicher Eskalation führen.
Auch auf strategischer Ebene droht Destabilisierung: Klare und Asaro warnten, dass der Einsatz autonomer U-Boote bestehende nukleare Abschreckungssysteme aushöhlen könnte. "Wenn gegnerische U-Boote durch autonome U-Boote in Echtzeit verfolgt werden können", erklärte Klare, "verlieren Staaten ihre ‚sichere Zweitschlagfähigkeit‘. In einer Krise könnte ein Land, das sich bedroht fühlt, dann als Erstes Nuklearwaffen einsetzen – aus Angst, sie andernfalls zu verlieren."
Viele Experten sehen übergeordnet die Gefahr, dass das zunehmende Vertrauen auf KI in Waffensystemen zu einer Entmenschlichung lebensentscheidender Entscheidungen führt. Bisher sind die meisten autonomen Systeme so konstruiert, dass ein Mensch in die Entscheidungskette eingebunden bleibt, etwa beim Auslösen tödlicher Einsätze.
Doch Militärs und Entscheider in Rüstungsunternehmen drängen zunehmend darauf, diesen "menschlichen Flaschenhals" zu eliminieren – mit der Begründung, dass menschliche "Langsamkeit" die Effizienz der Maschinen behindere.
Damit, warnen Beobachter, würde die Menschheit eine fundamentale ethische Grenze überschreiten. "Ich habe kein Problem mit ferngesteuerten Waffen", sagte Dan Grazier gegenüber RS. "Aber Autonomie in diesem Zusammenhang bereitet mir Sorgen. Die Vorstellung, dass Maschinen über Leben und Tod entscheiden, ist zutiefst beunruhigend. Als Gesellschaft – als Spezies – müssen wir das klären. Und zwar lieber früher als später."
Wenn autonome maritime Schiffe tatsächlich helfen statt schaden sollen, muss ihre Entwicklung und Anschaffung unter Berücksichtigung dieser praktischen und ethischen Bedenken erfolgen. Andernfalls könnten gut gemeinte Absichten, das Leben von Marinesoldaten zu schützen, eine gefährlichere Zukunft des Krieges einläuten.
Stavroula Pabst ist Reporterin für Responsible Statecraft.
Dieser Text erschien zuerst bei unserem Partnerportal Responsible Statecraft auf Englisch.



