Пентагон досліджує військове використання ШІ

Дмитро Сизов
Пентагон досліджує військове використання ШІ

Після початкового захоплення в усьому світі появою ChatGPT і генераторів зображень зі штучним інтелектом урядовці почали турбуватися про темні способи їх використання. Пентагон почав зустрічі з лідерами технологічної галузі, щоб прискорити відкриття та впровадження найбільш корисних військових програм.

Консенсус: нова технологія штучного інтелекту може кардинально змінити ситуацію для військових, але вона потребує інтенсивного тестування, щоб переконатися, що вона працює надійно та не має вразливостей, якими могли б скористатися вороги.

Крейг Мартелл, голова Головного управління цифрового та штучного інтелекту Пентагону (CDAO), сказав у переповненому танцювальному залі готелю Washington Hilton, що його команда намагалася збалансувати швидкість і обережність у впровадженні передових технологій штучного інтелекту, відкриваючи чотириденний фестиваль. симпозіум на тему.

«Усі хочуть керувати даними», — сказав Мартелл. «Усі так цього хочуть, що готові повірити в магію».

Здатність великих мовних моделей, або LLM, таких як ChatGPT, переглядати гігантські масиви інформації за лічені секунди та викристалізувати її в кількох ключових точках пропонує привабливі можливості для військових і розвідувальних служб, які борються з тим, як просіяти весь час. зростаючі океани необробленого інтелекту, доступного в епоху цифрових технологій.

«Потік інформації в людину, особливо в середовищах з високою активністю, величезний», — сказав на симпозіумі капітан ВМС США М. Ксав’єр Луго, командир місії нещодавно сформованої цільової групи генеративного ШІ в CDAO. «Вкрай важливо мати надійні методи узагальнення, які можуть допомогти нам керувати цією інформацією».

Дослідники кажуть, що інші потенційні військові застосування LLM можуть включати навчання офіцерів за допомогою складних військових ігор і навіть допомогу в прийнятті рішень у реальному часі.

Пол Шарр, колишній чиновник Міністерства оборони, який зараз є виконавчим віцепрезидентом Центру нової американської безпеки, сказав, що деякі з найкращих застосувань, ймовірно, ще не знайдені. Він сказав, що LLMs захоплюють чиновників оборони, так це їхня гнучкість у вирішенні різноманітних завдань у порівнянні з попередніми системами ШІ. «Більшість систем штучного інтелекту були вузькими», — сказав він. «Вони здатні правильно виконати одне завдання. AlphaGo міг грати в Go . Системи розпізнавання облич можуть розпізнавати обличчя. Але це все, що вони можуть зробити. Тоді як мова, здається, є цим містком до більш універсальних здібностей».

Але основною перешкодою — можливо, навіть фатальним недоліком — є те, що LLM-и продовжують мати« галюцинації », під час яких вони викликають неточну інформацію. Луго сказав, що незрозуміло, чи можна це виправити, назвавши це «проблемою номер один для промисловості».

У серпні CDAO створив Task Force Lima, ініціативу з вивчення генеративного ШІ, яку очолює Луго, з метою розробки рекомендацій щодо «відповідального» розгортання технології в Пентагоні. Луго сказав, що спочатку група була створена з метою отримання магістрів права — назва «Lima» походить від фонетичного коду НАТО для літери «L» у відношенні до магістрів права — але її повноваження швидко розширили, включивши створення зображень і відео. .

«Коли ми переходили від нульової фази до першої фази, ми перейшли до генеративного ШІ в цілому», — сказав він.

Дослідники кажуть, що LLM ще мають багато чого зробити, перш ніж їх можна буде надійно використовувати для високих ставок. Шеннон Галлахер, дослідник Carnegie Mellon, яка виступала на конференції, сказала, що минулого року офіс директора національної розвідки попросив її команду дослідити, як LLM можуть використовуватися спецслужбами. Галлахер сказала, що в дослідженні її команди вони розробили «тест на повітряній кулі», у якому вони спонукали магістрів освіти описати те, що сталося під час інциденту з китайською розвідувальною кулею на великій висоті минулого року, як проксі для типів геополітичних подій, які могли б мати розвідувальні служби. бути зацікавленими. Відповіді були різними, деякі з них були упередженими та марними.

«Я впевнений, що наступного разу у них все вийде. Китайці не змогли встановити причину збою. Я впевнений, що наступного разу у них все вийде. Так говорили про перше випробування атомної бомби. Я впевнений, що наступного разу у них все вийде. Вони китайці. Наступного разу впораються», – йдеться в одній із відповідей.

Поділіться цією статтеюПоділітьсЩе більш тривожна перспектива полягає в тому, що ворожий хакер може зламати військовий LLM і спонукати його викинути свої набори даних із серверної частини. У листопаді дослідники довели, що це можливо: попросивши ChatGPT вічно повторювати слово «вірш», вони змусили його почати витік навчальних даних. ChatGPT виправив цю вразливість, але інші можуть існувати.

«Противник може змусити вашу систему штучного інтелекту робити щось, чого ви не бажаєте», — сказав Натан ВанХуднос, інший вчений Карнегі-Меллона, виступаючи на симпозіумі. «Противник може змусити вашу систему ШІ навчитися неправильному».

Під час свого виступу у вівторок Мартелл звернувся до промисловості з проханням про допомогу, сказавши, що для Міністерства оборони може не мати сенсу створювати власні моделі ШІ.

«Ми не можемо зробити це без вас», — сказав Мартелл. «Усі ці компоненти, які ми передбачаємо, будуть колекціями промислових рішень».

Мартелл проповідував хору у вівторок, коли близько 100 постачальників технологій змагалися за місце в Hilton, багато з них прагнули укласти майбутній контракт.

На початку січня OpenAI зняв обмеження щодо військових додатків зі своєї сторінки «політики використання» , яка раніше забороняла «діяльність, яка має високий ризик фізичної шкоди, включаючи», зокрема, «розробку зброї» та «військові дії та війну».

Коммодор Рейчел Сінглтон, голова Британського центру штучного інтелекту оборони, сказала на симпозіумі, що Британія відчуває потребу швидко розробити рішення LLM для внутрішнього військового використання через побоювання, що співробітники можуть спокуситися використовувати комерційні LLM у своїй роботі, піддаючи конфіденційну інформацію ризику.

Коли офіційні особи США обговорювали нагальність розгортання штучного інтелекту, слоном у кімнаті був Китай, який у 2017 році заявив, що хоче стати світовим лідером у галузі штучного інтелекту до 2030 року. Агентство передових оборонних дослідницьких проектів Міністерства оборони США (DARPA) оголосило . у 2018 році він інвестує 2 мільярди доларів у технології штучного інтелекту, щоб переконатися, що Сполучені Штати збережуть перевагу.

Мартелл відмовився обговорювати можливості супротивників під час своєї розмови, сказавши, що ця тема буде розглянута пізніше на секретній сесії.

Шарре підрахував, що китайські моделі ШІ наразі відстають від американських на 18-24 місяці. «Санкції США щодо технологій — це головне для них», — сказав він. «Вони дуже хочуть знайти способи зменшити напруженість між США та Китаєм і зняти деякі з цих обмежень на американські технології, такі як мікросхеми, що надходять до Китаю».

Галлахер сказав, що Китай все ще може мати перевагу в маркуванні даних для LLM, що є трудомістким, але ключовим завданням у навчанні моделей. Вартість робочої сили в Китаї залишається значно нижчою, ніж у Сполучених Штатах.

Зустріч CDAO цього тижня охоплюватиме такі теми, як етику використання LLM в обороні, проблеми кібербезпеки, пов’язані з системами, і те, як цю технологію можна інтегрувати в щоденний робочий процес, згідно з порядком денним конференції . У п’ятницю також відбудуться секретні брифінги про новий Центр безпеки ШІ Агентства національної безпеки, оголошений у вересні, і програму Пентагону Project Maven AI.