“Це виглядає не дуже добре”: Сем Альтман назвав угоду OpenAI з Пентагоном поспішною
Компанія розгорне моделі у секретній мережі Міноборони США після заборони Anthropic.
Генеральний директор OpenAI Сем Альтман визнав, що угода з Міністерством оборони США була укладена надто швидко — одразу після заборони використання інструментів іншого розробника Anthropic. Водночас компанія вже домовилася про розгортання своїх моделей штучного інтелекту у секретній мережі відомства.
Альтман заявив у соцмережі X, що OpenAI прагнула деескалації відносин між урядом і технологічною галуззю. Він визнав ризики для репутації компанії, але вважає партнерство з державою критично важливим.
“Це точно було зроблено поспіхом, і виглядає не дуже добре”, — зазначив Альтман, коментуючи домовленості з Пентагоном.
За словами гендиректора OpenAI, компанія розраховувала, що угода допоможе знизити напругу між урядом та індустрією штучного інтелекту. Він додав: “Ми справді хотіли деескалації ситуації, і вважали запропоновану угоду вигідною”.
Альтман підкреслив, що у разі успіху OpenAI виглядатиме “геніями та компанією, яка доклала чимало зусиль, щоб допомогти галузі”. Проте в іншому випадку компанію й надалі вважатимуть “поспішною та необережною”.
Компанія підтвердила, що досягла угоди з Міністерством оборони США щодо розгортання своїх моделей у секретній мережі відомства. За словами Альтмана, під час перемовин міністерство демонструвало “глибоку повагу до безпеки та бажання співпрацювати для досягнення найкращого можливого результату”.
OpenAI наголошує, що основою її місії залишаються безпека штучного інтелекту та широкий розподіл його переваг. Два ключові принципи, яких вимагала й заборонена Anthropic, — блокування використання штучного інтелекту в масовому внутрішньому спостереженні та обов’язкова відповідальність людини за застосування сили, зокрема в автономних системах озброєння — включені до угоди.
Компанія також створить технічні запобіжники для належної роботи моделей і розгортатиме їх лише у хмарних мережах. Окремо буде застосовано FDE для підтримки моделей і забезпечення їхньої безпеки.
“Я вважаю, що добрі стосунки між урядом та компаніями, які розробляють цю технологію, будуть критично важливими протягом наступних кількох років”, — підсумував Альтман.
Ще на початку лютого Пентагон ініціював переговори з лідерами ринку ШІ з вимогою прибрати стандартні етичні та безпекові обмеження для інструментів, що розгортаються в секретних військових мережах. Військове керівництво прагне використовувати штучний інтелект для планування бойових місій та визначення цілей, наполягаючи на праві застосовувати комерційні технології без жодних бар'єрів, передбачених для цивільних користувачів.
Водночас компанія Anthropic вступила у відкрите протистояння з Пентагоном, відмовившись зняти обмеження на використання своєї моделі Claude для масового внутрішнього стеження та створення повністю автономної зброї. У відповідь Міністерство оборони США погрожувало розірвати контракти, застосувати Закон про оборонне виробництво (DPA) для примусового зняття лімітів або навіть офіційно визнати американську компанію “ризиком для ланцюга постачань”.
Источник: zn.ua