OpenAI a révisé son accord avec le département américain de la Défense pour interdire explicitement l’utilisation de ses technologies d’intelligence artificielle pour la surveillance nationale des citoyens américains. Cette décision fait suite à de nombreuses critiques à l’égard de l’accord initial, qui semblait accorder au Pentagone un large accès aux systèmes d’IA d’OpenAI à des fins licites.
Controverse initiale et rôle de l’administration Trump
Le partenariat initial, annoncé vendredi, a coïncidé avec la directive du président Trump aux agences fédérales de cesser leur utilisation de l’IA développée par le concurrent d’OpenAI, Anthropic. Ce timing a soulevé des questions sur l’influence politique sur les décisions d’achat d’IA. Dans le cadre de la première version de l’accord, OpenAI conservait le droit d’imposer des « garde-fous techniques » sur sa technologie pour garantir le respect de ses principes de sécurité, mais la nature indéterminée du contrat a suscité des craintes quant à d’éventuelles utilisations abusives.
Détails du contrat révisés
L’accord modifié comprend désormais des restrictions claires contre la surveillance délibérée de personnes ou de ressortissants américains, ainsi que contre l’acquisition ou l’utilisation de données personnelles à des fins de suivi ou de surveillance. OpenAI affirme que cela est conforme aux lois fédérales existantes régissant la vie privée et les libertés civiles. L’entreprise a souligné son engagement à respecter ses normes de sécurité déclarées tout en continuant à collaborer avec le secteur de la défense.
Réponse du Pentagone et position d’Anthropic
Le ministère de la Défense a publié une déclaration suggérant qu’il était réceptif à la négociation, contrairement à Anthropic, qu’il accusait de donner la priorité aux conflits personnels plutôt qu’à la coopération. La volonté du Pentagone de discuter des termes contraste avec le refus d’Anthropic de s’engager dans des pourparlers similaires.
Le contrat mis à jour est une réponse directe aux réactions négatives du public à l’égard de l’accord initial. Les implications sont significatives : cela signale une pression croissante sur les développeurs d’IA pour qu’ils équilibrent les intérêts de sécurité nationale avec les préoccupations en matière de droits civils. Cette affaire met en évidence l’équilibre délicat entre les applications militaires de l’IA et la nécessité de protéger la vie privée des individus, et soulève des questions sur la manière dont des accords similaires seront structurés à l’avenir.
En fin de compte, la décision d’OpenAI de modifier son accord démontre que même dans le cadre de partenariats à enjeux élevés avec des entités gouvernementales, le contrôle public peut forcer les entreprises à donner la priorité aux considérations éthiques.


























