A OpenAI revisou o seu acordo com o Departamento de Defesa dos EUA para proibir explicitamente o uso de suas tecnologias de inteligência artificial para vigilância doméstica de cidadãos americanos. A medida ocorre após críticas generalizadas ao acordo original, que parecia conceder ao Pentágono amplo acesso aos sistemas de IA da OpenAI para qualquer finalidade legal.

Controvérsia inicial e o papel da administração Trump

A parceria inicial, anunciada na sexta-feira, coincidiu com a diretriz do presidente Trump às agências federais para interromper o uso de IA desenvolvida pelo concorrente da OpenAI, Antrópico. Este momento levantou questões sobre a influência política nas decisões de aquisição de IA. Na primeira iteração do acordo, a OpenAI manteve o direito de impor “proteções técnicas” à sua tecnologia para garantir a conformidade com os seus princípios de segurança, mas a natureza ilimitada do contrato despertou receios sobre uma potencial utilização indevida.

Detalhes do contrato revisados

O acordo alterado inclui agora restrições claras contra a vigilância deliberada de pessoas ou nacionais dos EUA, bem como a aquisição ou utilização de dados pessoais para fins de rastreio ou monitorização. A OpenAI afirma que isso está alinhado com as leis federais existentes que regem a privacidade e as liberdades civis. A empresa sublinhou o seu compromisso em manter os padrões de segurança declarados, ao mesmo tempo que colabora com o sector da defesa.

Resposta do Pentágono e Posição da Antrópico

O Departamento de Defesa divulgou um comunicado sugerindo que era receptivo à negociação, ao contrário da Anthropic, que acusou de priorizar disputas pessoais em detrimento da cooperação. A disposição do Pentágono em discutir os termos contrasta com a recusa da Antrópico em se envolver em conversações semelhantes.

O contrato atualizado é uma resposta direta à reação pública em relação ao acordo original. As implicações são significativas: sinaliza uma pressão crescente sobre os criadores de IA para equilibrar os interesses de segurança nacional com as preocupações com os direitos civis. Este caso destaca o delicado equilíbrio entre as aplicações militares da IA ​​e a necessidade de salvaguardar a privacidade individual, e levanta questões sobre como serão estruturados acordos semelhantes no futuro.

Em última análise, a decisão da OpenAI de alterar o seu acordo demonstra que mesmo em parcerias de alto risco com entidades governamentais, o escrutínio público pode forçar as empresas a dar prioridade a considerações éticas.