Треба знатися на вибухівці та радіації. Anthropic шукає експерта зі зброї для запобігання небезпечному використанню ШІ
Американська компанія Anthropic, що спеціалізується на розробці штучного інтелекту, відкрила вакансію експерта з хімічної зброї та потужних вибухових речовин.
Головна мета залучення такого фахівця — запобігти «катастрофічному неправомірному використанню» програмного забезпечення компанії.
Розробники побоюються, що інструменти ШІ можуть надати користувачам інструкції зі створення радіоактивної або хімічної зброї, тому прагнуть максимально посилити захисні механізми.
Згідно з описом вакансії, кандидати повинні мати щонайменше п’ять років досвіду у сфері захисту від хімічних загроз та вибухівки, а також глибокі знання про радіаційні засоби розсіювання, відомі як «брудні бомби». Подібний крок вже зробила компанія OpenAI, запропонувавши посаду дослідника біологічних ризиків із річною зарплатою до 455 000 доларів США.
Проте експертне співтовариство висловлює занепокоєння. Доктор Стефані Хер із BBC зазначає, що навчання систем ШІ на конфіденційній інформації про зброю є ризикованим, оскільки міжнародних договорів, які б регулювали таку діяльність, наразі не існує.
Ситуація ускладнюється конфліктом Anthropic із Міністерством оборони США. Компанію внесли до списку ризикових постачальників після її відмови використовувати системи для автономної зброї чи масового стеження.
Попри ці суперечки, асистент Claude продовжує використовуватися в оборонних системах через платформу Palantir під час поточних військових операцій США.
Источник: techno.nv.ua