Sta emergendo una nuova ondata di tecnologia di difesa, in cui l’intelligenza artificiale non è più una funzione di supporto ma una componente fondamentale delle operazioni letali. Scout AI, una startup della Silicon Valley, ha recentemente dimostrato un sistema in grado di identificare e distruggere autonomamente obiettivi – in questo caso un camion – utilizzando droni e veicoli terrestri controllati dall’intelligenza artificiale. Ciò segna uno spostamento significativo verso capacità militari più autonome, sollevando sia opportunità che serie preoccupazioni.
La dimostrazione: l’intelligenza artificiale in azione
In un test a porte chiuse presso una base militare della California, il sistema di intelligenza artificiale “Fury Orchestrator” di Scout AI ha ricevuto un semplice comando: individuare e distruggere un camion blu 500 metri a est di un aeroporto. Il sistema, costruito su un modello di intelligenza artificiale open source modificato con oltre 100 miliardi di parametri, ha preso il controllo di un veicolo a guida autonoma e di due droni armati. Nel giro di pochi minuti, i droni localizzarono il bersaglio e fecero esplodere una carica esplosiva, confermando il successo della missione. Questa non era una simulazione; è stata una dimostrazione dal vivo della letalità guidata dall’intelligenza artificiale.
Il punto fondamentale è che l’intelligenza artificiale è ora in grado di prendere decisioni sul campo di battaglia senza l’intervento umano. Ciò include la selezione del bersaglio, la navigazione e l’uso della forza letale.
La corsa per il dominio dell’IA militare
Il rapido sviluppo dell’intelligenza artificiale nella difesa è guidato dalla convinzione che sarà decisiva nei conflitti futuri. I politici e gli strateghi militari vedono l’intelligenza artificiale come un modo per ottenere un vantaggio, motivo per cui il governo degli Stati Uniti ha limitato la vendita di chip avanzati di intelligenza artificiale a rivali come la Cina. Tuttavia, gli esperti avvertono che, sebbene il potenziale sia elevato, lo sono anche i rischi.
Michael Horowitz, ex funzionario del Pentagono, riconosce l’importanza di ampliare i confini dell’intelligenza artificiale, ma avverte che l’attuazione pratica è difficile. I modelli linguistici di grandi dimensioni sono imprevedibili e anche le attività di base dell’intelligenza artificiale possono portare a comportamenti inaspettati. Anche le vulnerabilità della sicurezza informatica di tali sistemi rappresentano una delle principali preoccupazioni.
Lo stack AI: come funziona
Il sistema di Scout AI si basa su una struttura gerarchica di intelligenza artificiale. Un modello di base di grandi dimensioni interpreta comandi di alto livello e delega compiti ad agenti IA più piccoli e specializzati che operano su veicoli terrestri e droni. Questi agenti controllano quindi i sistemi di livello inferiore responsabili del movimento, del targeting e della detonazione. Questa autonomia a cascata consente al sistema di adattarsi alle mutevoli condizioni, ma introduce anche potenziali errori o conseguenze indesiderate.
“Questo è ciò che ci differenzia dall’autonomia legacy. Questi sistemi non possono ripianificare a livello periferico in base alle informazioni che vedono e alle intenzioni del comandante; eseguono semplicemente le azioni alla cieca.” – Colby Adcock, CEO di Scout AI.
Preoccupazioni etiche e pratiche
L’impiego di sistemi d’arma controllati dall’intelligenza artificiale solleva importanti questioni etiche. Esperti di controllo degli armamenti ed esperti di etica dell’intelligenza artificiale avvertono che l’intelligenza artificiale potrebbe avere difficoltà a distinguere tra combattenti e non combattenti, con conseguenti vittime civili. La guerra in Ucraina ha già dimostrato quanto facilmente i droni di consumo possano essere utilizzati come armi, confondendo il confine tra tecnologia militare e civile.
Nonostante queste preoccupazioni, Scout AI insiste che la sua tecnologia aderisca alle regole di ingaggio delle forze armate statunitensi e alle norme internazionali. La società ha ottenuto quattro contratti con il Dipartimento della Difesa e sta cercando ulteriori finanziamenti per sviluppare sistemi di controllo degli sciami.
La sfida più grande sarà tradurre queste dimostrazioni in sistemi di livello militare affidabili, sicuri e prevedibili. Come osserva Horowitz, “Non dovremmo confondere le loro dimostrazioni con capacità sul campo che hanno affidabilità e sicurezza informatica di livello militare”.
Il futuro della guerra sta cambiando rapidamente e l’intelligenza artificiale è in prima linea. Sebbene i potenziali benefici siano chiari, i rischi – sia etici che pratici – non possono essere ignorati.
