Китайські та арабські чат-боти будуть перевірені державними експертами зі штучного інтелекту (ШІ) через побоювання, що вони можуть допомогти терористам створювати біологічну зброю.
Інститут безпеки штучного інтелекту, нещодавно створений державний орган, призначений досліджувати, чи загрожують системи штучного інтелекту національній безпеці, планує вивчити чат-боти, які використовують мандаринську, арабську, корейську та французьку мови.
Це сталося після того, як китайські, іранські та північнокорейські хакери були заблоковані у використанні ChatGPT, коли боти використовувалися для здійснення кібератак.
Більшість тестів на безпеку, які проводять дослідники штучного інтелекту та компанії перед випуском нових систем, перевіряють моделі англійською мовою.
Дослідники виявили, що в деяких випадках чат-боти з більшою ймовірністю дадуть небезпечні відповіді або заохочуватимуть до протиправної поведінки, якщо запитуватимуть іншою мовою, ніж англійською.
Водночас системи штучного інтелекту, що розробляються в Китаї та на Близькому Сході, ймовірно, будуть менше досліджуватися, ніж англомовні чат-боти.