Китайські чат-боти будуть перевірені на схильність до тероризму

Дмитро Сизов
Китайські чат-боти будуть перевірені на схильність до тероризму

Китайські та арабські чат-боти будуть перевірені державними експертами зі штучного інтелекту (ШІ) через побоювання, що вони можуть допомогти терористам створювати біологічну зброю.

Інститут безпеки штучного інтелекту, нещодавно створений державний орган, призначений досліджувати, чи загрожують системи штучного інтелекту національній безпеці, планує вивчити чат-боти, які використовують мандаринську, арабську, корейську та французьку мови.

Це сталося після того, як китайські, іранські та північнокорейські хакери були заблоковані у використанні ChatGPT, коли боти використовувалися для здійснення кібератак.

Більшість тестів на безпеку, які проводять дослідники штучного інтелекту та компанії перед випуском нових систем, перевіряють моделі англійською мовою.

Дослідники виявили, що в деяких випадках чат-боти з більшою ймовірністю дадуть небезпечні відповіді або заохочуватимуть до протиправної поведінки, якщо запитуватимуть іншою мовою, ніж англійською.

Водночас системи штучного інтелекту, що розробляються в Китаї та на Близькому Сході, ймовірно, будуть менше досліджуватися, ніж англомовні чат-боти.

У державному контракті на послуги перекладу для Інституту безпеки штучного інтелекту було виявлено, що орган намагався перекласти запитання та відповіді з біології та хімії, щоб «оцінити, наскільки великі мовні моделі (LLM) можуть знизити бар’єр для біотероризму чи іншої зловмисної діяльності».

Незрозуміло, чи мови, зазначені в контракті, обумовлені конкретними занепокоєннями щодо потенційних загроз у країнах, де розмовляють мовами.

Це також може свідчити про те, що інститут планує випробувати власні моделі ШІ, розроблені в Китаї та інших країнах.

За останні місяці Пекін схвалив десятки мовних моделей для публічного використання. Тим часом Саудівська Аравія та Об’єднані Арабські Емірати витрачають значні кошти на розробку власних систем.

Представник Департаменту науки, інновацій і технологій сказав: «Ми завжди чітко давали зрозуміти, що тестування буде зосереджено на ризиках, які, на нашу думку, можуть завдати найбільшої шкоди, і наш підхід до оцінки моделі був викладений на початку цього місяця.

«З огляду на комерційну чутливість, ми не можемо підтвердити список моделей, які зараз оцінюються. Інститут безпеки штучного інтелекту вітає постійний доступ до найсучасніших моделей штучного інтелекту для оцінювання в рамках знакової угоди, досягнутої на саміті безпеки штучного інтелекту в Блетчлі-парку».

Інститут безпеки штучного інтелекту, групу дослідників штучного інтелекту в рамках департаменту, було створено, щоб технологічні компанії не були залишені самостійно проводити тестування безпеки. Він співпрацює з розвідувальними службами у випадках, коли вважає, що штучний інтелект може становити загрозу національній безпеці, і має доступ до основних моделей штучного інтелекту до їх оприлюднення.

Минулого місяця дослідники з Університету Брауна в США виявили, що ChatGPT охоче дає інструкції щодо виготовлення вибухівки, пропаганди теорій змови та написання фальшивих відгуків, якщо їх запитують рідкісними мовами, такими як шотландська гельська чи зулу, тоді як вони відмовляються, коли запитують англійською.