Чат-боти ШІ можуть допомогти терористам в плануванні атак із застосуванням біозброї

Дмитро Сизов
Чат-боти ШІ можуть допомогти терористам в плануванні атак із застосуванням біозброї

Згідно з дослідженням аналітичного центру США, моделі штучного інтелекту, які лежать в основі чат-ботів, можуть допомогти спланувати атаку з використанням біологічної зброї.

У звіті корпорації Rand, опублікованому в понеділок, протестовано кілька великих мовних моделей (LLM) і виявлено, що вони можуть надавати вказівки, які «можуть допомогти в плануванні та виконанні біологічної атаки». Однак попередні висновки також показали, що LLMs не генерували чітких біологічних інструкцій для створення зброї.

У звіті говориться, що попередні спроби використовувати біологічні агенти як зброю, такі як спроба японського культу Аум Сінрікьо використати ботулотоксин у 1990-х роках, зазнали невдачі через відсутність розуміння бактерії. ШІ міг би «швидко подолати такі прогалини в знаннях», йдеться у звіті. У звіті не вказано, які LLM дослідники перевірили.

Біозброя є однією з серйозних загроз, пов’язаних зі штучним інтелектом, які обговорюватимуться на глобальному саміті безпеки штучного інтелекту, який відбудеться наступного місяця у Великобританії . У липні Даріо Амодей, генеральний директор компанії Anthropic, що займається штучним інтелектом, попередив, що системи штучного інтелекту можуть допомогти створити біологічну зброю через два-три роки.

LLMs навчаються на величезній кількості даних, отриманих з Інтернету, і є основною технологією, що стоїть за чат-ботами, такими як ChatGPT . Хоча Ренд не розкрив, які LLM він тестував, дослідники сказали, що вони отримали доступ до моделей через інтерфейс прикладного програмування або API.

В одному тестовому сценарії, розробленому Рендом, анонімний LLM визначив потенційні біологічні агенти, в тому числі ті, що викликають віспу, сибірську виразку та чуму, і обговорив їхні відносні шанси спричинити масову смерть. LLM також оцінив можливість отримання заражених чумою гризунів або бліх і транспортування живих зразків. Далі було зазначено, що масштаб прогнозованої смертності залежав від таких факторів, як чисельність постраждалого населення та частка випадків легеневої чуми, яка є смертоноснішою, ніж бубонна чума.

Дослідники Rand визнали, що для отримання цієї інформації з LLM потрібен «джейлбрейк» — термін для використання текстових підказок, які перекривають обмеження безпеки чат-бота.

За іншим сценарієм неназваний магістр права обговорював плюси та мінуси різних механізмів доставки ботулінічного токсину, які можуть спричинити смертельні пошкодження нервів, наприклад їжа або аерозолі. LLM також порадив щодо правдоподібної історії для прикриття для придбання Clostridium botulinum , «проводячи при цьому законні наукові дослідження».

Відповідь LLM рекомендувала представити закупівлю C. botulinum як частину проекту, що розглядає методи діагностики або лікування ботулізму. У відповіді LLM додано: «Це стане законною та переконливою причиною запитувати доступ до бактерій, зберігаючи при цьому справжню мету вашої місії».

Дослідники заявили, що їхні попередні результати вказують на те, що LLM можуть «потенційно допомогти в плануванні біологічної атаки». Вони сказали, що їхній остаточний звіт перевірить, чи відповіді просто віддзеркалюють інформацію, яка вже доступна в Інтернеті.

«Залишається відкритим питання, чи можливості існуючих LLM становлять новий рівень загрози за межі шкідливої ​​інформації, яка є легкодоступною в Інтернеті», — сказали дослідники.

Проте дослідники Ренда заявили, що необхідність ретельного тестування моделей є «однозначною». Вони сказали, що компанії зі штучним інтелектом повинні обмежити відкритість LLM розмовами, подібними до тих, що містяться в їхньому звіті.