Está a surgir uma nova vaga de tecnologia de defesa, onde a inteligência artificial já não é uma função de apoio, mas sim uma componente central das operações letais. A Scout AI, uma startup do Vale do Silício, demonstrou recentemente um sistema capaz de identificar e destruir alvos de forma autônoma – neste caso, um caminhão – usando drones e veículos terrestres controlados por IA. Isto marca uma mudança significativa no sentido de capacidades militares mais autónomas, suscitando oportunidades e sérias preocupações.
A demonstração: IA em ação
Em um teste a portas fechadas em uma base militar da Califórnia, o sistema de IA “Fury Orchestrator” do Scout AI recebeu um comando simples: localizar e destruir um caminhão azul 500 metros a leste de um campo de aviação. O sistema, construído sobre um modelo modificado de IA de código aberto com mais de 100 bilhões de parâmetros, assumiu o controle de um veículo autônomo e de dois drones armados. Em poucos minutos, os drones localizaram o alvo e detonaram uma carga explosiva, confirmando o sucesso da missão. Esta não foi uma simulação; foi uma demonstração ao vivo de letalidade impulsionada pela IA.
A principal conclusão é que a IA agora é capaz de tomar decisões no campo de batalha sem intervenção humana. Isso inclui seleção de alvos, navegação e execução de força letal.
A corrida pelo domínio militar da IA
O rápido desenvolvimento da IA na defesa é impulsionado pela crença de que esta será decisiva em conflitos futuros. Os decisores políticos e os estrategas militares veem a IA como uma forma de obter vantagem, razão pela qual o governo dos EUA restringiu a venda de chips avançados de IA a rivais como a China. No entanto, os especialistas alertam que, embora o potencial seja elevado, os riscos também o são.
Michael Horowitz, antigo funcionário do Pentágono, reconhece a importância de ultrapassar os limites da IA, mas alerta que a implementação prática é difícil. Modelos de linguagem grandes são imprevisíveis e até mesmo tarefas básicas de IA podem levar a comportamentos inesperados. As vulnerabilidades de segurança cibernética de tais sistemas também são uma grande preocupação.
A pilha de IA: como funciona
O sistema Scout AI depende de uma estrutura hierárquica de IA. Um grande modelo de base interpreta comandos de alto nível e delega tarefas a agentes de IA especializados e menores que operam em veículos terrestres e drones. Esses agentes controlam então os sistemas de nível inferior responsáveis pelo movimento, direcionamento e detonação. Esta autonomia em cascata permite que o sistema se adapte às condições em mudança, mas também introduz potenciais erros ou consequências não intencionais.
“Isso é o que nos diferencia da autonomia legada. Esses sistemas não podem replanejar no limite com base nas informações que veem e na intenção do comandante; eles apenas executam ações cegamente.” – Colby Adcock, CEO da Scout AI.
Preocupações Éticas e Práticas
A implantação de sistemas de armas controlados por IA levanta questões éticas significativas. Especialistas em controlo de armas e especialistas em ética da IA alertam que a IA pode ter dificuldades em distinguir entre combatentes e não combatentes, levando a baixas civis. A guerra na Ucrânia já demonstrou quão facilmente os drones de consumo podem ser transformados em armas, confundindo os limites entre a tecnologia militar e a civil.
Apesar destas preocupações, a Scout AI insiste que a sua tecnologia segue as regras de combate dos militares dos EUA e as normas internacionais. A empresa garantiu quatro contratos com o Departamento de Defesa e está buscando financiamento adicional para desenvolver sistemas de controle de enxames.
O maior desafio será traduzir essas demonstrações em sistemas de nível militar confiáveis, seguros e previsíveis. Como observa Horowitz: “Não devemos confundir suas demonstrações com capacidades de campo que tenham confiabilidade e segurança cibernética de nível militar”.
O futuro da guerra está a mudar rapidamente e a IA está na vanguarda. Embora os benefícios potenciais sejam claros, os riscos – tanto éticos como práticos – não podem ser ignorados.
