Está surgiendo una nueva ola de tecnología de defensa, en la que la inteligencia artificial ya no es una función de apoyo sino un componente central de las operaciones letales. Scout AI, una startup de Silicon Valley, demostró recientemente un sistema capaz de identificar y destruir objetivos de forma autónoma (en este caso, un camión) utilizando drones y vehículos terrestres controlados por IA. Esto marca un cambio significativo hacia capacidades militares más autónomas, lo que genera tanto oportunidades como serias preocupaciones.
La demostración: IA en acción
En una prueba a puerta cerrada en una base militar de California, el sistema de inteligencia artificial “Fury Orchestrator” de Scout AI recibió una orden simple: localizar y destruir un camión azul a 500 metros al este de un aeródromo. El sistema, construido sobre un modelo modificado de IA de código abierto con más de 100 mil millones de parámetros, tomó el control de un vehículo autónomo y dos drones armados. En cuestión de minutos, los drones localizaron el objetivo y detonaron una carga explosiva, confirmando el éxito de la misión. Esto no fue una simulación; fue una demostración en vivo de la letalidad impulsada por la IA.
La conclusión clave es que la IA ahora es capaz de tomar decisiones en el campo de batalla sin intervención humana. Esto incluye la selección de objetivos, la navegación y la ejecución de fuerza letal.
La carrera por el dominio de la IA militar
El rápido desarrollo de la IA en defensa está impulsado por la creencia de que será decisiva en conflictos futuros. Los formuladores de políticas y los estrategas militares ven la IA como una forma de obtener ventaja, razón por la cual el gobierno estadounidense ha restringido la venta de chips de IA avanzados a rivales como China. Sin embargo, los expertos advierten que si bien el potencial es alto, también lo son los riesgos.
Michael Horowitz, ex funcionario del Pentágono, reconoce la importancia de ampliar los límites de la IA, pero advierte que la implementación práctica es difícil. Los modelos de lenguaje grandes son impredecibles e incluso las tareas básicas de IA pueden provocar comportamientos inesperados. Las vulnerabilidades de ciberseguridad de dichos sistemas también son una gran preocupación.
La pila de IA: cómo funciona
El sistema de Scout AI se basa en una estructura jerárquica de IA. Un modelo de base grande interpreta comandos de alto nivel y delega tareas a agentes de inteligencia artificial más pequeños y especializados que se ejecutan en vehículos terrestres y drones. Luego, estos agentes controlan los sistemas de nivel inferior responsables del movimiento, la focalización y la detonación. Esta autonomía en cascada permite que el sistema se adapte a condiciones cambiantes, pero también introduce posibilidades de errores o consecuencias no deseadas.
“Esto es lo que nos diferencia de la autonomía heredada. Esos sistemas no pueden replanificar en el borde basándose en la información que ven y la intención del comandante; simplemente ejecutan acciones a ciegas”. – Colby Adcock, director ejecutivo de Scout AI.
Preocupaciones éticas y prácticas
El despliegue de sistemas de armas controlados por IA plantea importantes cuestiones éticas. Los expertos en control de armas y especialistas en ética de la IA advierten que la IA podría tener dificultades para distinguir entre combatientes y no combatientes, lo que provocaría víctimas civiles. La guerra en Ucrania ya ha demostrado con qué facilidad se pueden convertir en armas los drones de consumo, borrando la línea entre la tecnología militar y civil.
A pesar de estas preocupaciones, Scout AI insiste en que su tecnología cumple con las reglas de enfrentamiento del ejército estadounidense y las normas internacionales. La empresa ha conseguido cuatro contratos con el Departamento de Defensa y está buscando financiación adicional para desarrollar sistemas de control de enjambres.
El mayor desafío será traducir estas demostraciones en sistemas confiables, seguros y predecibles de grado militar. Como señala Horowitz, “no debemos confundir sus demostraciones con capacidades desplegadas que tienen confiabilidad y ciberseguridad de grado militar”.
El futuro de la guerra está cambiando rápidamente y la IA está a la vanguardia. Si bien los beneficios potenciales son claros, los riesgos (tanto éticos como prácticos) no pueden ignorarse.























