Er ontstaat een nieuwe golf van defensietechnologie, waarbij kunstmatige intelligentie niet langer een ondersteunende functie is, maar een kerncomponent van dodelijke operaties. Scout AI, een startup uit Silicon Valley, demonstreerde onlangs een systeem dat in staat is om autonoom doelen – in dit geval een vrachtwagen – te identificeren en te vernietigen met behulp van AI-gestuurde drones en grondvoertuigen. Dit markeert een aanzienlijke verschuiving naar meer autonome militaire vermogens, wat zowel kansen als ernstige zorgen met zich meebrengt.

De demonstratie: AI in actie

Tijdens een test achter gesloten deuren op een militaire basis in Californië ontving het AI-systeem “Fury Orchestrator” van Scout AI een eenvoudig commando: lokaliseer en vernietig een blauwe vrachtwagen 500 meter ten oosten van een vliegveld. Het systeem, gebouwd op een aangepast open-source AI-model met meer dan 100 miljard parameters, nam de controle over een zelfrijdend voertuig en twee bewapende drones over. Binnen enkele minuten lokaliseerden de drones het doelwit en brachten een explosieve lading tot ontploffing, wat het succes van de missie bevestigde. Dit was geen simulatie; het was een live demonstratie van AI-aangedreven dodelijkheid.

De belangrijkste conclusie is dat AI nu in staat is om beslissingen op het slagveld te nemen zonder menselijke tussenkomst. Dit omvat doelselectie, navigatie en het uitvoeren van dodelijk geweld.

De race om militaire AI-dominantie

De snelle ontwikkeling van AI op defensiegebied wordt gedreven door de overtuiging dat AI doorslaggevend zal zijn in toekomstige conflicten. Beleidsmakers en militaire strategen zien AI als een manier om voorsprong te verwerven. Daarom heeft de Amerikaanse regering de verkoop van geavanceerde AI-chips aan rivalen als China beperkt. Deskundigen waarschuwen echter dat, hoewel het potentieel groot is, de risico’s dat ook zijn.

Michael Horowitz, een voormalige functionaris van het Pentagon, erkent het belang van het verleggen van AI-grenzen, maar waarschuwt dat de praktische implementatie moeilijk is. Grote taalmodellen zijn onvoorspelbaar, en zelfs basale AI-taken kunnen tot onverwacht gedrag leiden. De cyberbeveiligingskwetsbaarheden van dergelijke systemen zijn ook een groot probleem.

De AI-stack: hoe het werkt

Het systeem van Scout AI is gebaseerd op een hiërarchische AI-structuur. Een groot basismodel interpreteert commando’s op hoog niveau en delegeert taken aan kleinere, gespecialiseerde AI-agenten die op het grondvoertuig en drones draaien. Deze agenten controleren vervolgens systemen op een lager niveau die verantwoordelijk zijn voor beweging, doelgerichtheid en ontploffing. Deze trapsgewijze autonomie zorgt ervoor dat het systeem zich kan aanpassen aan veranderende omstandigheden, maar introduceert ook de kans op fouten of onbedoelde gevolgen.

“Dit is wat ons onderscheidt van de traditionele autonomie. Die systemen kunnen aan de rand niet opnieuw plannen op basis van de informatie die ze zien en de bedoelingen van de commandant; ze voeren acties gewoon blindelings uit.” – Colby Adcock, CEO van Scout AI.

Ethische en praktische problemen

De inzet van AI-gestuurde wapensystemen roept belangrijke ethische vragen op. Wapenbeheersingsexperts en AI-ethici waarschuwen dat AI moeite zou kunnen hebben om onderscheid te maken tussen strijders en niet-strijders, wat tot burgerslachtoffers zou kunnen leiden. De oorlog in Oekraïne heeft al aangetoond hoe gemakkelijk drones voor consumenten kunnen worden bewapend, waardoor de grenzen tussen militaire en civiele technologie vervagen.

Ondanks deze zorgen houdt Scout AI vol dat zijn technologie voldoet aan de regels van het Amerikaanse leger en aan de internationale normen. Het bedrijf heeft vier contracten afgesloten met het ministerie van Defensie en streeft naar aanvullende financiering om zwermcontrolesystemen te ontwikkelen.

De grootste uitdaging zal het vertalen van deze demonstraties zijn in betrouwbare, veilige en voorspelbare systemen van militaire kwaliteit. Zoals Horowitz opmerkt: “We moeten hun demonstraties niet verwarren met veldcapaciteiten die betrouwbaarheid en cyberbeveiliging van militair niveau hebben.”

De toekomst van oorlogsvoering verandert snel en AI loopt voorop. Hoewel de potentiële voordelen duidelijk zijn, kunnen de risico’s – zowel ethisch als praktisch – niet worden genegeerd.