OpenAI розкриває більше деталей своєї угоди з Пентагоном

За власним визнанням генерального директора Сема Альтмана, угода OpenAI з Міністерством оборони була «безумовно поспішною», і «оптика виглядає не дуже добре».
Після того, як переговори між Anthropic та Пентагоном провалилися у п'ятницю, президент Дональд Трамп наказав федеральним агентствам припинити використання технології Anthropic після шестимісячного перехідного періоду , а міністр оборони Піт Хегсет заявив, що він визначає компанію зі штучним інтелектом як ризик для ланцюга поставок.
Потім OpenAI швидко оголосила про досягнення власної угоди щодо розгортання моделей у засекречених середовищах. Оскільки Anthropic заявила, що проводить червоні лінії навколо використання своєї технології в повністю автономній зброї або масовому внутрішньому спостереженні, а Альтман сказав, що OpenAI має такі ж червоні лінії, виникли очевидні питання: чи був OpenAI чесним щодо своїх запобіжних заходів? Чому йому вдалося досягти угоди, а Anthropic – ні?
Тож, поки керівники OpenAI захищали угоду в соціальних мережах, компанія також опублікувала допис у блозі, в якому виклала свій підхід .
Фактично, у публікації вказувалося на три сфери, де, як стверджується, моделі OpenAI не можуть бути використані — масове внутрішнє спостереження, автономні системи зброї та «автоматизовані рішення з високими ставками (наприклад, такі системи, як «соціальний кредит»)».
Компанія заявила, що на відміну від інших компаній, що займаються штучним інтелектом, які «зменшили або зняли свої запобіжні заходи та покладалися переважно на політики використання як основні гарантії в розгортанні національної безпеки», угода OpenAI захищає її червоні лінії «завдяки більш широкому, багаторівневому підходу».
«Ми зберігаємо за собою повну свободу дій щодо нашого стеку безпеки, ми розгортаємо його через хмару, перевірений персонал OpenAI знаходиться в курсі подій, і ми маємо надійний договірний захист», – йдеться в блозі. «Все це на додаток до надійного існуючого захисту, передбаченого законодавством США».
Компанія додала: «Ми не знаємо, чому Anthropic не змогла досягти цієї угоди, і сподіваємося, що вони та інші лабораторії розглянуть її».
Після публікації допису Майк Маснік з Techdirt заявив , що угода «абсолютно дозволяє внутрішнє стеження», оскільки, як стверджується, збір приватних даних відповідатиме Виконавчому наказу 12333 (разом з низкою інших законів). Маснік описав цей наказ як «те, як АНБ приховує своє внутрішнє стеження, перехоплюючи повідомлення шляхом прослуховування ліній зв'язку *за межами США*, навіть якщо вони містять інформацію від/про громадян США».
У своїй публікації в LinkedIn керівник відділу партнерства з національної безпеки OpenAI Катріна Малліган стверджувала, що значна частина дискусій навколо формулювання контракту передбачає, що «єдине, що стоїть між американцями та використанням ШІ для масового внутрішнього спостереження та автономної зброї, — це єдине положення про політику використання в єдиному контракті з Міністерством війни».
«Це не так працює», – сказав Малліган, додавши: «Архітектура розгортання важливіша за мову контракту […] Обмежуючи наше розгортання хмарним API, ми можемо гарантувати, що наші моделі не можна буде інтегрувати безпосередньо в системи озброєння, датчики чи інше операційне обладнання».
Альтман також відповів на запитання щодо угоди на X, де визнав, що її було укладено поспіхом і призвело до значної негативної реакції проти OpenAI (настільки, що Claude з Anthropic обігнав ChatGPT OpenAI в App Store Apple у суботу). То навіщо це робити?
«Ми справді хотіли деескалації, і вважали запропоновану угоду вигідною», – сказав Альтман. «Якщо ми маємо рацію, і це призведе до деескалації між DoW та галуззю, ми виглядатимемо як генії та компанія, яка доклала чимало зусиль, щоб допомогти галузі. Якщо ні, нас продовжуватимуть характеризувати як […] поспішних та необережних».