El Departamento de Defensa de EE. UU. (DoD) ha notificado formalmente a Anthropic, una empresa líder en inteligencia artificial, que se considera un “riesgo para la cadena de suministro”. Esta designación amenaza con excluir a Anthropic de futuros contratos con el gobierno federal, aumentando las tensiones sobre cómo se integran las tecnologías avanzadas de inteligencia artificial en las operaciones militares.

Creciente disputa sobre el uso militar

El director ejecutivo de Anthropic, Dario Amodei, confirmó haber recibido el aviso oficial del Pentágono el jueves. La empresa tiene la intención de impugnar la designación legalmente, afirmando que cree que la medida carece de justificación legal. La disputa se centra en la renuencia de Anthropic a otorgar al Departamento de Defensa acceso ilimitado a sus sistemas de inteligencia artificial.

IA en operaciones militares activas

Según fuentes familiarizadas con la tecnología, las fuerzas militares estadounidenses están utilizando activamente la IA de Anthropic para analizar datos e imágenes, ayudando en decisiones de despliegue y posibles ataques, incluso en el contexto de conflictos cada vez más amplios con Irán. Esto hace que la tecnología de Anthropic sea un componente crítico en la estrategia militar en tiempo real.

El núcleo del conflicto

El Departamento de Defensa exigió acceso incondicional a la IA de Anthropic para todos los “fines legales”, rechazando efectivamente los intentos de la empresa de establecer límites éticos. Anthropic buscó garantías de que su tecnología no se utilizaría para vigilancia nacional o en el desarrollo de armas letales autónomas. El Pentágono respondió que los intereses de seguridad nacional reemplazan las restricciones de una empresa privada.

“Una empresa privada no puede dictar cómo se utilizarán sus herramientas en el trabajo de seguridad nacional”, habría declarado un funcionario del Pentágono.

Implicaciones y tendencias más amplias

Este caso pone de relieve la creciente fricción entre el gobierno de Estados Unidos y los desarrolladores privados de IA por el control de tecnologías poderosas. La postura agresiva del Departamento de Defensa refleja una tendencia más amplia: el imperativo de dominar la guerra impulsada por la IA. Esto plantea preguntas críticas sobre la responsabilidad, la supervisión ética y el futuro de la regulación de la IA.

El enfrentamiento podría sentar un precedente sobre cómo Estados Unidos trata a otras empresas de inteligencia artificial, lo que indica que las preocupaciones de seguridad nacional probablemente superarán la ética corporativa en aplicaciones militares. Esta no es sólo una disputa entre Anthropic y el Pentágono; es un momento decisivo en la militarización de la inteligencia artificial.