Es entsteht eine neue Welle der Verteidigungstechnologie, bei der künstliche Intelligenz keine unterstützende Funktion mehr ist, sondern eine Kernkomponente tödlicher Operationen. Scout AI, ein Startup aus dem Silicon Valley, hat kürzlich ein System demonstriert, das mithilfe von KI-gesteuerten Drohnen und Bodenfahrzeugen Ziele – in diesem Fall einen Lastwagen – autonom identifizieren und zerstören kann. Dies stellt einen bedeutenden Wandel hin zu autonomeren militärischen Fähigkeiten dar, der sowohl Chancen als auch ernsthafte Bedenken mit sich bringt.

Die Demonstration: KI in Aktion

In einem Test unter Ausschluss der Öffentlichkeit auf einem kalifornischen Militärstützpunkt erhielt das KI-System „Fury Orchestrator“ von Scout AI einen einfachen Befehl: Lokalisieren und zerstören Sie einen blauen Lastwagen 500 Meter östlich eines Flugplatzes. Das auf einem modifizierten Open-Source-KI-Modell mit über 100 Milliarden Parametern basierende System übernahm die Kontrolle über ein selbstfahrendes Fahrzeug und zwei bewaffnete Drohnen. Innerhalb weniger Minuten lokalisierten die Drohnen das Ziel und zündeten eine Sprengladung, was den Erfolg der Mission bestätigte. Dies war keine Simulation; Es war eine Live-Demonstration der KI-gesteuerten Tödlichkeit.

Die wichtigste Erkenntnis ist, dass KI jetzt in der Lage ist, Entscheidungen auf dem Schlachtfeld ohne menschliches Eingreifen zu treffen. Dazu gehören Zielauswahl, Navigation und die Ausübung tödlicher Gewalt.

Der Wettlauf um die Vorherrschaft der militärischen KI

Die rasante Entwicklung der KI in der Verteidigung beruht auf der Überzeugung, dass sie in künftigen Konflikten entscheidend sein wird. Politische Entscheidungsträger und Militärstrategen sehen in KI eine Möglichkeit, sich einen Vorsprung zu verschaffen, weshalb die US-Regierung den Verkauf fortschrittlicher KI-Chips an Konkurrenten wie China eingeschränkt hat. Experten warnen jedoch davor, dass zwar das Potenzial hoch, aber auch die Risiken hoch seien.

Michael Horowitz, ein ehemaliger Pentagon-Beamter, erkennt die Bedeutung der Erweiterung der KI-Grenzen an, warnt jedoch davor, dass die praktische Umsetzung schwierig sei. Große Sprachmodelle sind unvorhersehbar und selbst grundlegende KI-Aufgaben können zu unerwartetem Verhalten führen. Auch die Cybersicherheitslücken solcher Systeme geben Anlass zu großer Sorge.

Der KI-Stack: So funktioniert er

Das System von Scout AI basiert auf einer hierarchischen KI-Struktur. Ein großes Basismodell interpretiert hochrangige Befehle und delegiert Aufgaben an kleinere, spezialisierte KI-Agenten, die auf dem Bodenfahrzeug und den Drohnen laufen. Diese Agenten steuern dann untergeordnete Systeme, die für Bewegung, Zielerfassung und Detonation verantwortlich sind. Diese kaskadierende Autonomie ermöglicht es dem System, sich an veränderte Bedingungen anzupassen, birgt jedoch auch die Möglichkeit von Fehlern oder unbeabsichtigten Folgen.

„Das ist es, was uns von der alten Autonomie unterscheidet. Diese Systeme können nicht am Rande basierend auf den Informationen, die sie sehen, und der Absicht des Kommandanten neu planen; sie führen Aktionen einfach blind aus.“ – Colby Adcock, CEO von Scout AI.

Ethische und praktische Bedenken

Der Einsatz KI-gesteuerter Waffensysteme wirft erhebliche ethische Fragen auf. Rüstungskontrollexperten und KI-Ethiker warnen davor, dass es der KI schwerfallen könnte, zwischen Kombattanten und Nichtkombattanten zu unterscheiden, was zu zivilen Opfern führen könnte. Der Krieg in der Ukraine hat bereits gezeigt, wie leicht Verbraucherdrohnen als Waffe eingesetzt werden können, wodurch die Grenzen zwischen militärischer und ziviler Technologie verwischt werden.

Trotz dieser Bedenken besteht Scout AI darauf, dass seine Technologie den Einsatzregeln des US-Militärs und internationalen Normen entspricht. Das Unternehmen hat vier Verträge mit dem Verteidigungsministerium abgeschlossen und sucht nach zusätzlichen Mitteln für die Entwicklung von Schwarmkontrollsystemen.

Die größte Herausforderung wird darin bestehen, diese Demonstrationen in zuverlässige, sichere und vorhersehbare Systeme auf militärischem Niveau umzusetzen. Wie Horowitz anmerkt: „Wir sollten ihre Demonstrationen nicht mit Feldfähigkeiten verwechseln, die über Zuverlässigkeit und Cybersicherheit auf militärischem Niveau verfügen.“

Die Zukunft der Kriegsführung verändert sich rasant und KI steht dabei an vorderster Front. Während die potenziellen Vorteile klar sind, können die Risiken – sowohl ethischer als auch praktischer Natur – nicht ignoriert werden.