OpenAI ha rivisto il suo accordo con il Dipartimento della Difesa degli Stati Uniti per vietare esplicitamente l’uso delle sue tecnologie di intelligenza artificiale per la sorveglianza interna dei cittadini americani. La mossa arriva dopo diffuse critiche all’accordo originale, che sembrava garantire al Pentagono un ampio accesso ai sistemi di intelligenza artificiale di OpenAI per qualsiasi scopo legale.
Controversia iniziale e ruolo dell’amministrazione Trump
La partnership iniziale, annunciata venerdì, ha coinciso con la direttiva del presidente Trump alle agenzie federali di interrompere l’uso dell’intelligenza artificiale sviluppata dal concorrente di OpenAI Anthropic. Questa tempistica ha sollevato dubbi sull’influenza politica sulle decisioni sugli appalti di intelligenza artificiale. Nella prima iterazione dell’accordo, OpenAI ha mantenuto il diritto di imporre “guardie tecniche” sulla sua tecnologia per garantire il rispetto dei suoi principi di sicurezza, ma la natura indeterminata del contratto ha suscitato timori su un potenziale uso improprio.
Dettagli contrattuali rivisti
L’accordo modificato include ora chiare restrizioni contro la sorveglianza deliberata di persone o cittadini statunitensi, nonché sull’acquisizione o l’uso di dati personali a fini di tracciamento o monitoraggio. OpenAI afferma che ciò è in linea con le leggi federali esistenti che regolano la privacy e le libertà civili. L’azienda ha sottolineato il proprio impegno a sostenere gli standard di sicurezza dichiarati pur continuando a collaborare con il settore della difesa.
La risposta del Pentagono e la posizione antropica
Il Dipartimento della Difesa ha rilasciato una dichiarazione in cui suggerisce di essere aperto alla negoziazione, a differenza di Anthropic, che ha accusato di dare priorità alle controversie personali rispetto alla cooperazione. La disponibilità del Pentagono a discutere i termini contrasta con il rifiuto di Anthropic di impegnarsi in colloqui simili.
Il contratto aggiornato è una risposta diretta alla reazione pubblica sull’accordo originale. Le implicazioni sono significative: segnala una crescente pressione sugli sviluppatori di intelligenza artificiale affinché concilino gli interessi della sicurezza nazionale con le preoccupazioni sui diritti civili. Questo caso evidenzia il delicato equilibrio tra le applicazioni militari dell’IA e la necessità di salvaguardare la privacy individuale, e solleva interrogativi su come saranno strutturati accordi simili in futuro.
In definitiva, la decisione di OpenAI di modificare il proprio accordo dimostra che anche nelle partnership ad alto rischio con enti governativi, il controllo pubblico può costringere le aziende a dare priorità alle considerazioni etiche.
