Scout AI zeigt: KI-Agenten führen jetzt eigenständig Militäreinsätze durch

1 week ago 4

24. Februar 2026 Kai Imhoff

Transporter wird von einer KI-gesteuerten Drohne autonom aufgespürt, angegriffen und zerstört.

(Bild: Scout AI)

Das US-Startup nutzt große Sprachmodelle, um Fahrzeuge und Drohnen zu steuern – bis zur autonomen Zerstörung von Zielen.

KI-Agenten schreiben längst nicht mehr nur Code oder beantworten Emails. Auch dem Militär können sie inzwischen gute Dienste leisten: Sie spüren autonom Ziele auf und zerstören diese, der Auftrag muss nur noch in ein Textfeld getippt werden und der Rest wird von Künstlicher Intelligenz erledigt.

Was ein wenig nach Science-Fiction klingt, hat das Unternehmen Scout AI aus Kalifornien kürzlich vorgeführt. Vom Routenplan über die Zielaufklärung bis zur Zündung einer Sprengladung lief alles ohne menschliches Eingreifen ab. Die Technologie trägt den Namen: Fury Autonomous Vehicle Orchestrator.

Sprachbefehl genügt – KI übernimmt die Mission

Bei einem Test auf einer Militärbasis in Zentralkalifornien tippte ein Bediener einen Befehl so oder in ähnlicher Form ein: "Schicke ein Bodenfahrzeug zum Kontrollpunkt, starte zwei Drohnen, zerstöre den blauen Lastwagen östlich des Flugplatzes".

Die Software erstellte daraufhin eigenständig einen Einsatzplan, steuerte ein gepanzertes Geländefahrzeug über unbefestigte Wege ins Zielgebiet und startete von dort zwei bewaffnete Drohnen zur Aufklärung.

Als eine Drohne den Lastwagen lokalisierte, entschied ein auf ihr laufendes KI-Programm selbstständig, das Ziel anzufliegen und den Sprengsatz auszulösen. Laut Scout AI kam dabei weder eine Fernsteuerung noch ein vorab programmierter Ablauf zum Einsatz.

Große und kleine Modelle arbeiten zusammen

Hinter dem System steckt ein mehrstufiges Zusammenspiel verschiedener KI-Modelle. An der Spitze steht ein Sprachmodell mit mehr als 100 Milliarden Parametern, das die übergeordnete Absicht des Kommandanten versteht und in konkrete Teilaufträge zerlegt.

Diese Teilaufträge gehen an deutlich kompaktere Modelle mit rund zehn Milliarden Parametern, die direkt auf den Drohnen und Fahrzeugen rechnen.

Der entscheidende Unterschied zu bisherigen Drohnensystemen wird in der Flexibilität gesehen. Herkömmliche Software folgt festen Regeln: "Wenn Hindernis, dann ausweichen." Fury hingegen kann laut Scout AI spontan umplanen, sobald sich die Lage verändert – etwa wenn ein Ziel seinen Standort wechselt.

Firmen-Chef Colby Adcock erklärte gegenüber Wired, bisherige Systeme führten Befehle "einfach blind aus", ohne auf neue Informationen zu reagieren.

US-Armee investiert Millionen in autonome Fahrzeuge

Scout AI ist kein Einzelfall, sondern nur ein Beispiel dafür, wie Künstliche Intelligenz zunehmend für militärische Zwecke verwendet wird. Schon im August 2025 vergab die US-Armee zu diesem Zweck drei Aufträge im Gesamtwert von etwa 15,5 Millionen US-Dollar an Scout AI, Forterra und Overland AI.

Alle drei Firmen sollen ihre jeweilige Autonomie-Software in Infanterie-Truppentransporter integrieren und bis Mai 2026 funktionsfähige Prototypen an Soldaten übergeben. Die Armee will damit herausfinden, ob kommerzielle Technik aus dem Silicon Valley auf dem Gefechtsfeld tatsächlich zuverlässig funktioniert.

Scout AI kooperiert bei der Fahrzeugintegration mit dem Rüstungsunternehmen Textron Systems und lässt die Sicherheit seiner Software von der Firma Edge Case Research prüfen. Vier Verträge mit dem Pentagon bestehen laut Unternehmensangaben bereits, ein weiterer für die Steuerung ganzer Drohnenschwärme ist in Vorbereitung.

Zwischen Potenzial und Unberechenbarkeit

Trotz der ambitionierten Pläne bleiben gewichtige Fragezeichen. Michael Horowitz, Professor an der University of Pennsylvania und früherer Pentagon-Beamter, mahnt laut Wired zur Vorsicht: „Wir sollten ihre Demonstrationen nicht mit einsatzfähigen Fähigkeiten verwechseln, die militärische Zuverlässigkeit und Cybersicherheit bieten".

Sprachmodelle gelten als grundsätzlich schwer kontrollierbar. Selbst bei alltäglichen Aufgaben wie Online-Einkäufen produzieren KI-Agenten regelmäßig Fehler. Auf einem Gefechtsfeld, wo ein fehlgeleiteter Algorithmus über Menschenleben entscheiden kann, wiegen solche Schwächen ungleich schwerer.

Ob sie auch immer zuverlässig zwischen Kämpfern und Zivilisten unterscheiden können, ist bislang auch nicht klar.

Auch beim Thema menschliche Kontrolle gibt es Widersprüche. Scout AI betont in seiner offiziellen Darstellung, dass stets ein Bediener zur Überwachung eingebunden bleibe. Die Berichterstattung von Wired zeichnet dagegen ein anderes Bild: Während der Demonstration hatten die KI-Agenten weitgehend freie Hand – einschließlich der Entscheidung zum Angriff.

Wie viel Kontrolle der Mensch tatsächlich behält, wenn Algorithmen in Sekundenbruchteilen handeln, bleibt eine der drängendsten Fragen der modernen Kriegsführung.

Read Entire Article