OpenAI zrewidowało swoją umowę z Departamentem Obrony USA, aby wyraźnie zakazać wykorzystywania swoich technologii sztucznej inteligencji do inwigilacji obywateli amerykańskich w kraju. Posunięcie to było następstwem powszechnej krytyki pierwotnej umowy, która wydawała się zapewniać Pentagonowi szeroki dostęp do systemów sztucznej inteligencji OpenAI w dowolnym zgodnym z prawem celu.

Początkowy skandal i rola administracji Trumpa

Początkowe partnerstwo, ogłoszone w piątek, zbiegło się w czasie z nakazem prezydenta Trumpa skierowanym do agencji federalnych, aby zaprzestały korzystania ze sztucznej inteligencji opracowanej przez Anthropic, konkurenta OpenAI. W tej chwili zrodziły się pytania dotyczące wpływu politycznego na decyzje dotyczące zamówień AI. W pierwszej wersji umowy OpenAI zachowało prawo do nałożenia „ograniczeń technicznych” na swoją technologię, aby zapewnić zgodność z zasadami bezpieczeństwa, ale niepewność umowy wzbudziła obawy dotyczące możliwych nadużyć.

Zmienione szczegóły umowy

Zmieniona umowa zawiera obecnie jasne ograniczenia dotyczące celowego nadzoru osób lub obywateli USA oraz gromadzenia lub wykorzystywania danych osobowych do śledzenia lub monitorowania. OpenAI twierdzi, że jest to zgodne z istniejącymi przepisami federalnymi regulującymi prywatność i wolności obywatelskie. Kontynuując współpracę z sektorem obronnym, spółka podkreśliła swoje zaangażowanie w utrzymanie ustalonych standardów bezpieczeństwa.

Odpowiedź Pentagonu i stanowisko antropiczne

Departament Obrony wydał oświadczenie, w którym wskazał, że jest skłonny do negocjacji, w przeciwieństwie do Anthropic, którą oskarżano o przedkładanie różnic osobistych ponad współpracę. Gotowość Pentagonu do omówienia warunków kontrastuje z odmową Anthropic zaangażowania się w podobne negocjacje.

Zaktualizowana umowa jest bezpośrednią odpowiedzią na niezadowolenie społeczne z pierwotnej umowy. Konsekwencje są znaczące: sygnalizuje rosnącą presję na twórców sztucznej inteligencji, aby zrównoważyli interesy bezpieczeństwa narodowego z kwestiami praw obywatelskich. Sprawa podkreśla delikatną równowagę między wojskowymi zastosowaniami sztucznej inteligencji a potrzebą ochrony prywatności obywateli, a także rodzi pytania dotyczące struktury podobnych umów w przyszłości.

Ostatecznie decyzja OpenAI o zmianie umowy pokazuje, że nawet w przypadku partnerstw o ​​wysokiej stawce z agencjami rządowymi kontrola publiczna może zmusić firmy do priorytetowego traktowania kwestii etycznych.