OpenAI пересмотрела свое соглашение с Министерством обороны США, чтобы явно запретить использование своих технологий искусственного интеллекта для внутренней слежки за американскими гражданами. Этот шаг последовал за широкой критикой первоначальной сделки, которая, казалось, предоставляла Пентагону широкий доступ к системам искусственного интеллекта OpenAI для любых законных целей.

Первоначальный Скандал и Роль Администрации Трампа

Первоначальное партнерство, объявленное в пятницу, совпало с распоряжением президента Трампа федеральным агентствам прекратить использование искусственного интеллекта, разработанного конкурентом OpenAI, Anthropic. Этот момент вызвал вопросы о политическом влиянии на решения о закупке искусственного интеллекта. В первой версии сделки OpenAI сохраняла за собой право накладывать «технические ограничения» на свои технологии для обеспечения соответствия своим принципам безопасности, но неопределенность контракта вызвала опасения по поводу возможного злоупотребления.

Детали Пересмотренного Контракта

Измененное соглашение теперь включает четкие ограничения на преднамеренное наблюдение за лицами или гражданами США, а также на сбор или использование личных данных для отслеживания или мониторинга. OpenAI утверждает, что это соответствует существующим федеральным законам, регулирующим конфиденциальность и гражданские свободы. Компания подчеркнула свою приверженность соблюдению заявленных стандартов безопасности, продолжая сотрудничать с оборонным сектором.

Ответ Пентагона и Позиция Anthropic

Министерство обороны опубликовало заявление, в котором указало, что готово к переговорам, в отличие от Anthropic, которую обвинили в том, что она ставит личные разногласия выше сотрудничества. Готовность Пентагона обсуждать условия контрастирует с отказом Anthropic участвовать в аналогичных переговорах.

Обновленный контракт является прямым ответом на общественное недовольство первоначальным соглашением. Последствия значительны: это сигнализирует о растущем давлении на разработчиков искусственного интеллекта, чтобы они сбалансировали интересы национальной безопасности с вопросами гражданских прав. Этот случай подчеркивает деликатный баланс между военным применением искусственного интеллекта и необходимостью защиты частной жизни граждан, а также вызывает вопросы о том, как будут структурированы аналогичные сделки в будущем.

В конечном счете, решение OpenAI внести поправки в свою сделку демонстрирует, что даже в высокоставочных партнерствах с государственными учреждениями общественный контроль может заставить компании уделять приоритетное внимание этическим соображениям.