OpenAI ha revisado su acuerdo con el Departamento de Defensa de EE. UU. para prohibir explícitamente el uso de sus tecnologías de inteligencia artificial para la vigilancia interna de ciudadanos estadounidenses. La medida se produce después de críticas generalizadas al acuerdo original, que parecía otorgar al Pentágono amplio acceso a los sistemas de inteligencia artificial de OpenAI para cualquier propósito legal.
Controversia inicial y papel de la administración Trump
La asociación inicial, anunciada el viernes, coincidió con la directiva del presidente Trump a las agencias federales de detener el uso de la IA desarrollada por el competidor de OpenAI, Anthropic. Este momento generó dudas sobre la influencia política sobre las decisiones de adquisición de IA. Según la primera versión del acuerdo, OpenAI mantuvo el derecho de imponer “barandillas técnicas” a su tecnología para garantizar el cumplimiento de sus principios de seguridad, pero la naturaleza indefinida del contrato generó temores sobre un posible uso indebido.
Detalles del contrato revisado
El acuerdo modificado ahora incluye restricciones claras contra la vigilancia deliberada de personas o nacionales estadounidenses, así como la adquisición o uso de datos personales con fines de seguimiento o monitoreo. OpenAI afirma que esto se alinea con las leyes federales existentes que rigen la privacidad y las libertades civiles. La compañía destacó su compromiso de mantener los estándares de seguridad declarados sin dejar de colaborar con el sector de defensa.
La respuesta del Pentágono y la postura de Anthropic
El Departamento de Defensa emitió un comunicado sugiriendo que era receptivo a la negociación, a diferencia de Anthropic, a quien acusaron de priorizar las disputas personales sobre la cooperación. La voluntad del Pentágono de discutir los términos contrasta con la negativa de Anthropic a entablar conversaciones similares.
El contrato actualizado es una respuesta directa a la reacción pública sobre el acuerdo original. Las implicaciones son significativas: indica una presión creciente sobre los desarrolladores de IA para equilibrar los intereses de seguridad nacional con las preocupaciones por los derechos civiles. Este caso destaca el delicado equilibrio entre las aplicaciones militares de la IA y la necesidad de salvaguardar la privacidad individual, y plantea interrogantes sobre cómo se estructurarán acuerdos similares en el futuro.
En última instancia, la decisión de OpenAI de modificar su acuerdo demuestra que incluso en asociaciones de alto riesgo con entidades gubernamentales, el escrutinio público puede obligar a las empresas a priorizar consideraciones éticas.
