Il Dipartimento della Difesa degli Stati Uniti (DoD) ha formalmente notificato ad Anthropic, una delle principali società di intelligenza artificiale, che è considerato un “rischio nella catena di fornitura”. Questa designazione minaccia di escludere Anthropic da futuri contratti con il governo federale, aumentando le tensioni su come le tecnologie avanzate di intelligenza artificiale vengono integrate nelle operazioni militari.

Crescente controversia sull’uso militare

Il CEO di Anthropic, Dario Amodei, ha confermato di aver ricevuto giovedì la comunicazione ufficiale dal Pentagono. L’azienda intende contestare legalmente la designazione, affermando di ritenere che la mossa sia priva di giustificazione giuridica. La controversia è incentrata sulla riluttanza di Anthropic a concedere al Dipartimento della Difesa un accesso illimitato ai suoi sistemi di intelligenza artificiale.

IA nelle operazioni militari attive

Secondo fonti che hanno familiarità con la tecnologia, le forze militari statunitensi stanno utilizzando attivamente l’intelligenza artificiale di Anthropic per analizzare dati e immagini, aiutando nelle decisioni di schieramento e potenziali attacchi, anche nel contesto dell’ampliamento dei conflitti con l’Iran. Ciò rende la tecnologia di Anthropic una componente fondamentale nella strategia militare in tempo reale.

Il nocciolo del conflitto

Il Dipartimento della Difesa ha richiesto l’accesso incondizionato all’intelligenza artificiale di Anthropic per tutti gli “scopi legali”, respingendo di fatto i tentativi dell’azienda di stabilire confini etici. Anthropic ha cercato garanzie che la sua tecnologia non sarebbe stata utilizzata per la sorveglianza interna o per lo sviluppo di armi letali autonome. Il Pentagono ha ribattuto che gli interessi di sicurezza nazionale prevalgono sulle restrizioni di una società privata.

“Una società privata non può dettare come i suoi strumenti verranno utilizzati nel lavoro di sicurezza nazionale”, avrebbe affermato un funzionario del Pentagono.

Implicazioni e tendenze più ampie

Questo caso evidenzia il crescente attrito tra il governo degli Stati Uniti e gli sviluppatori privati di intelligenza artificiale sul controllo di potenti tecnologie. La posizione aggressiva del Dipartimento della Difesa riflette una tendenza più ampia: l’imperativo di dominare nella guerra guidata dall’intelligenza artificiale. Ciò solleva domande cruciali sulla responsabilità, sul controllo etico e sul futuro della regolamentazione dell’IA.

La situazione di stallo potrebbe costituire un precedente per il modo in cui gli Stati Uniti trattano le altre aziende di intelligenza artificiale, segnalando che le preoccupazioni per la sicurezza nazionale probabilmente supereranno l’etica aziendale nelle applicazioni militari. Questa non è solo una disputa tra Anthropic e il Pentagono; è un momento decisivo nell’arma dell’intelligenza artificiale.