Розробники найпотужнішого ШІ навчать його вірити у надприроднє
Американська компанія Anthropic залучає представників світових релігій до формування моральних орієнтирів для свого чат-бота Claude. Після серії закритих зустрічей із 15 християнськими лідерами, організованих у квітні, компанія разом із представниками OpenAI взяла участь у міжрелігійному круглому столі Faith-AI Covenant у Нью-Йорку. На заході обговорювали етику штучного інтелекту з представниками одразу кількох світових релігій.
За даними Associated Press, зустрічі координує швейцарська неурядова організація Interfaith Alliance for Safer Communities. Надалі подібні заходи планують провести в Китаї, Кенії та ОАЕ. До обговорень також долучилася британська політикиня й колишня технологічна керівниця Джоанна Шілдс, відома своєю роботою у сфері цифрової безпеки.
Сама Anthropic офіційно не пояснює, яким чином ці консультації впливатимуть на розробку Claude. Компанія вже давно будує модель навколо концепції «конституції» — зведення етичних принципів, якими має керуватися штучний інтелект. Проте створити універсальну систему моралі виявилося значно складніше, ніж передбачали розробники: усередині самої Anthropic визнають побоювання, що спроби вбудувати «достатньо хороші» цінності можуть зазнати невдачі.
Глава некомерційної організації Humane Intelligence Румман Чоудхурі вважає, що технологічні компанії поступово усвідомлюють неможливість створення універсальної етики. За її словами, Кремнієва долина тривалий час виходила з наївного припущення, що можна сформулювати єдиний набір моральних принципів для всього людства. «Тепер розробники починають розуміти, що це практично недосяжно, і тому звертаються до релігії як до одного зі способів роботи з сірою зоною етичних рішень», — зазначила вона.
Поки що незрозуміло, наскільки ці зустрічі реально впливають на поведінку Claude. Компанії не публікували конкретних рекомендацій від релігійних лідерів і не повідомляли про пряме впровадження релігійних принципів у модель. Судячи з усього, Anthropic не прагне перетворити Claude на носія певної релігійної доктрини, а радше шукає спільні моральні закономірності для більш передбачуваної й безпечної поведінки ШІ.
Сама тенденція свідчить про фундаментальну проблему галузі: сучасні мовні моделі ухвалюють рішення в ситуаціях, для яких неможливо наперед прописати жорсткі правила. Йдеться не лише про заборону небезпечних відповідей чи токсичного контенту — розробники намагаються навчити моделі діяти в морально неоднозначних обставинах, коли різні цінності вступають у конфлікт, а наслідки помилки можуть бути серйозними.
Головне питання залишається відкритим навіть усередині індустрії: чи здатний штучний інтелект справді «засвоїти» мораль, чи всі ці спроби лише створюють ілюзію етичної поведінки систем, які насправді не розуміють ані цінностей, ані наслідків власних рішень.
Источник: noworries.news