Departament Obrony Stanów Zjednoczonych (DoD) formalnie powiadomił Anthropic, wiodącą firmę zajmującą się sztuczną inteligencją, że jest to uważane za „ryzyko w łańcuchu dostaw”. Decyzja ta może kosztować Anthropic przyszłe kontrakty z rządem federalnym, zwiększając napięcia w związku z integracją zaawansowanych technologii sztucznej inteligencji w operacjach wojskowych.

Narastający konflikt dotyczący zastosowań wojskowych

Dyrektor generalny Anthropic, Dario Amodei, potwierdził, że otrzymał w czwartek oficjalne powiadomienie od Pentagonu. Spółka zamierza zaskarżyć tę decyzję do sądu, twierdząc, że nie ma ona podstawy prawnej. Konflikt koncentruje się wokół niechęci Anthropic do zapewnienia Departamentowi Obrony nieograniczonego dostępu do swoich systemów sztucznej inteligencji.

AI w aktywnych operacjach wojskowych

Według osób zaznajomionych z tą technologią wojsko amerykańskie aktywnie wykorzystuje sztuczną inteligencję Anthropic do analizowania danych i obrazów, aby pomóc w podejmowaniu decyzji dotyczących rozmieszczenia i potencjalnych uderzeń, w tym w kontekście pogłębiającego się konfliktu z Iranem. To sprawia, że ​​technologia antropiczna jest kluczowym elementem strategii wojskowej czasu rzeczywistego.

Istota konfliktu

Departament Obrony zażądał bezwarunkowego dostępu do sztucznej inteligencji Anthropic do wszystkich „uzasadnionych celów”, skutecznie odrzucając próby firmy dotyczące wyznaczania granic etycznych. Firma Anthropic domagała się zapewnień, że jej technologia nie będzie wykorzystywana do nadzoru krajowego ani do opracowywania autonomicznej śmiercionośnej broni. Pentagon odpowiedział, że interesy bezpieczeństwa narodowego mają pierwszeństwo przed ograniczeniami nałożonej na prywatną firmę.

„Prywatna firma nie może dyktować, w jaki sposób jej narzędzia mają być wykorzystywane w pracy nad bezpieczeństwem narodowym” – zacytowano anonimowego urzędnika Pentagonu.

Implikacje i szersze trendy

Sprawa podkreśla rosnące napięcie między rządem USA a prywatnymi twórcami sztucznej inteligencji w związku z kontrolą nad potężnymi technologiami. Agresywna postawa Departamentu Obrony odzwierciedla szerszy trend: chęć zdominowania działań wojennych kontrolowanych przez sztuczną inteligencję. Rodzi to ważne pytania dotyczące odpowiedzialności, nadzoru etycznego i przyszłości regulacji dotyczących sztucznej inteligencji.

Sytuacja może stanowić precedens dla sposobu, w jaki Stany Zjednoczone traktują inne firmy zajmujące się sztuczną inteligencją, sygnalizując, że względy bezpieczeństwa narodowego prawdopodobnie będą miały pierwszeństwo przed etyką korporacyjną w zastosowaniach wojskowych. To nie jest tylko spór między Anthropic a Pentagonem; jest to decydujący moment w procesie zbrojenia sztucznej inteligencji.