Сем Альтман з OpenAI оголошує Пентагону свою згоду щодо «технічних гарантій»

Генеральний директор OpenAI Сем Альтман оголосив, що його компанія досягла угоди, яка дозволяє Міністерству оборони використовувати свої моделі штучного інтелекту в секретній мережі відомства.
Це сталося після гучного протистояння між департаментом — також відомим за адміністрації Трампа як Міністерство війни — та конкурентом OpenAI, компанією Anthropic. Пентагон тиснув на компанії, що займаються штучним інтелектом, включаючи Anthropic, щоб дозволити використовувати їхні моделі «для всіх законних цілей», тоді як Anthropic прагнула провести червону лінію навколо масового внутрішнього спостереження та повністю автономної зброї.
У довгій заяві, опублікованій у четвер , генеральний директор Anthropic Даріо Амодей заявив, що компанія «ніколи не заперечувала проти конкретних військових операцій і не намагалася обмежити використання нашої технології ситуативно » , але він стверджував, що «у вузькому переліку випадків ми вважаємо, що ШІ може підривати, а не захищати демократичні цінності».
Понад 60 співробітників OpenAI та 300 співробітників Google цього тижня підписали відкритого листа з проханням до своїх роботодавців підтримати позицію Anthropic.
Після того, як Anthropic та Пентагон не змогли досягти угоди, президент Дональд Трамп розкритикував «лівоцентристську роботу в Anthropic» у дописі в соціальних мережах , а також наказав федеральним агентствам припинити використання продуктів компанії після шестимісячного періоду поступового виведення з виробництва.
В окремій публікації міністр оборони Піт Хегсет заявив, що Anthropic намагається «захопити право вето щодо оперативних рішень збройних сил США». Хегсет також сказав, що він визначає Anthropic як ризик для ланцюга поставок: «З цього моменту жоден підрядник, постачальник чи партнер, який веде бізнес з військовими силами США, не може вести будь-яку комерційну діяльність з Anthropic».
У п'ятницю Anthropic заявила, що «ще не отримала прямого повідомлення від Міністерства війни чи Білого дому щодо статусу наших переговорів», але наполягала, що «оскаржуватиме будь-яке визначення ризику для ланцюга поставок у суді».
Дивно, але Альтман заявив у своєму дописі на X , що новий оборонний контракт OpenAI включає захист, що стосується тих самих проблем, які стали точкою спалаху для Anthropic.
«Два наших найважливіших принципи безпеки – це заборона на масове спостереження всередині країни та відповідальність людини за застосування сили, зокрема для автономних систем зброї», – сказав Альтман. «Міністерство праці погоджується з цими принципами, відображає їх у законодавстві та політиці, і ми включаємо їх у нашу угоду».
Альтман сказав, що OpenAI «створить технічні засоби безпеки, щоб забезпечити належну роботу наших моделей, чого й хотіло Міністерство промисловості», і направлятиме інженерів разом із Пентагоном, «щоб допомогти з нашими моделями та забезпечити їхню безпеку».
«Ми просимо Міністерство промисловості США запропонувати ці ж умови всім компаніям, що займаються штучним інтелектом, і, на нашу думку, всі повинні бути готові їх прийняти», – додав Альтман. «Ми висловили наше сильне бажання, щоб ситуація деескалувалася, відходячи від юридичних та урядових дій, до розумних угод».
Шерон Голдман з Fortune повідомляє , що Альтман на загальній зустрічі сказала співробітникам OpenAI, що уряд дозволить компанії створити власний «стек безпеки» для запобігання зловживанням, і що «якщо модель відмовиться виконувати завдання, то уряд не змусить OpenAI змусити її це завдання виконати».
Пост Альтмана з'явився незадовго до того, як стали відомі новини про те, що уряди США та Ізраїлю почали бомбардувати Іран , а Трамп закликав до повалення іранського уряду.