Formuje se nová vlna obranných technologií, kde umělá inteligence již není podpůrnou funkcí, ale klíčovou součástí smrtících operací. Scout AI, startup ze Silicon Valley, nedávno předvedl systém schopný autonomně identifikovat a ničit cíle – v tomto případě nákladní automobil – pomocí dronů a pozemních vozidel řízených umělou inteligencí. To znamená významný posun směrem k autonomnějším vojenským schopnostem, což vyvolává příslib i vážné obavy.

Demo: AI v akci

V uzavřeném testu na vojenské základně v Kalifornii dostal systém umělé inteligence Fury Orchestrator společnosti Scout AI jednoduchý příkaz: lokalizovat a zničit modrý náklaďák nacházející se 500 metrů východně od letiště. Systém postavený na upraveném open-source modelu umělé inteligence obsahující více než 100 miliard parametrů převzal kontrolu nad samohybným vozidlem a dvěma ozbrojenými drony. Během několika minut drony lokalizovaly cíl a odpálily výbušninu, čímž potvrdily úspěch mise. Toto nebyla simulace; byla to živá ukázka letality založené na umělé inteligenci.

Hlavním přínosem je, že umělá inteligence je nyní schopna rozhodovat na bitevním poli bez lidského zásahu. To zahrnuje zaměřování, navigaci a použití smrtící síly.

Závod o dominanci ve vojenské umělé inteligenci

Rychlý rozvoj AI v obranném sektoru je poháněn přesvědčením, že bude rozhodující v budoucích konfliktech. Politici a vojenští stratégové považují AI za způsob, jak získat výhodu, a proto americká vláda omezila prodej pokročilých čipů AI konkurentům, jako je Čína. Odborníci však upozorňují, že zatímco potenciál je vysoký, jsou i rizika.

Michael Horowitz, bývalý úředník Pentagonu, uznává důležitost posouvání hranic umělé inteligence, ale varuje, že praktická implementace je obtížná. Velké jazykové modely jsou nepředvídatelné a dokonce i základní úkoly umělé inteligence mohou vést k neočekávanému chování. Velkým problémem je také kybernetická bezpečnost takových systémů.

Architektura AI: Jak to funguje

Systém Scout AI spoléhá na hierarchickou strukturu AI. Velký základní model interpretuje příkazy na vysoké úrovni a deleguje úkoly na menší, specializované agenty AI běžící na pozemních vozidlech a dronech. Tito agenti pak ovládají systémy nižší úrovně zodpovědné za pohon, zaměřování a detonaci. Tato kaskádová autonomie umožňuje systému přizpůsobit se měnícím se podmínkám, ale také přináší potenciál pro chyby nebo nezamýšlené důsledky.

“To je to, co nás odlišuje od původní autonomie. Tyto systémy nemohou přeplánovat na místě na základě obdržených informací a záměru velitele; jednoduše provádějí akce naslepo.” – Kobi Adox, CEO, Scout AI.

Etické a praktické otázky

Rozmístění zbraňových systémů řízených umělou inteligencí vyvolává vážné etické otázky. Experti na kontrolu zbraní a etici AI varují, že AI může mít potíže s rozlišením mezi bojovníky a nebojovníky, což vede k civilním obětem. Válka na Ukrajině již ukázala, jak snadno lze spotřebitelské drony proměnit ve zbraně, čímž se stírá hranice mezi vojenskou a civilní technologií.

Navzdory těmto obavám, Scout AI trvá na tom, že její technologie je v souladu s pravidly zapojení amerického ministerstva obrany a mezinárodními normami. Společnost má čtyři smlouvy s ministerstvem obrany a hledá další finanční prostředky na vývoj systémů řízení roje dronů.

Největším problémem bude převést tyto demonstrace do spolehlivých, bezpečných a předvídatelných vojenských systémů. Jak Horowitz poznamenává, „Neměli bychom si plést jejich demonstrace s nasazenými schopnostmi, které mají vojenskou spolehlivost a kybernetickou bezpečnost.“

Budoucnost válčení se rychle mění a AI je v popředí. Zatímco potenciální přínosy jsou jasné, rizika – etická i praktická – nelze ignorovat.