OpenAI переглянула свою угоду з Міністерством оборони США, щоб заборонити використання своїх технологій штучного інтелекту для внутрішнього стеження за американськими громадянами. Цей крок послідував за широкою критикою початкової угоди, яка, здавалося, надавала Пентагону широкий доступ до систем штучного інтелекту OpenAI для будь-яких законних цілей.
Початковий Скандал та Роль Адміністрації Трампа
Початкове партнерство, оголошене у п’ятницю, збіглося з розпорядженням президента Трампа федеральним агенціям припинити використання штучного інтелекту, розробленого конкурентом OpenAI, Anthropic. Цей момент викликав питання щодо політичного впливу на рішення про закупівлю штучного інтелекту. У першій версії угоди OpenAI зберігала за собою право накладати “технічні обмеження” на свої технології для забезпечення відповідності своїм принципам безпеки, але невизначеність контракту викликала побоювання щодо можливого зловживання.
Деталі Переглянутого Контракту
Змінена угода тепер включає чіткі обмеження на навмисне спостереження за особами чи громадянами США, а також на збирання або використання особистих даних для відстеження чи моніторингу. OpenAI стверджує, що це відповідає існуючим федеральним законам, що регулюють конфіденційність та громадянські свободи. Компанія наголосила на своїй прихильності дотримання заявлених стандартів безпеки, продовжуючи співпрацювати з оборонним сектором.
Відповідь Пентагону та Позиція Anthropic
Міністерство оборони опублікувало заяву, в якій вказало, що готове до переговорів, на відміну від Anthropic, яку звинуватили в тому, що вона ставить особисті розбіжності вище за співпрацю. Готовність Пентагону обговорювати умови контрастує з відмовою Anthropic брати участь у аналогічних переговорах.
Оновлений контракт є прямою відповіддю на суспільне невдоволення початковою угодою. Наслідки значні: це сигналізує про зростаючий тиск на розробників штучного інтелекту, щоб вони збалансували інтереси національної безпеки з питаннями цивільних прав. Цей випадок наголошує на делікатному балансі між військовим застосуванням штучного інтелекту та необхідністю захисту приватного життя громадян, а також викликає питання про те, як будуть структуровані аналогічні угоди в майбутньому.
Зрештою, рішення OpenAI внести поправки до своєї угоди демонструє, що навіть у високоставкових партнерствах із державними установами громадський контроль може змусити компанії приділяти пріоритетну увагу етичним міркуванням.




























