Моделі штучного інтелекту в симуляції ядерної війни продемонстрували агресію та непоступливість
Дослідники імітували геополітичний конфлікт з ризиком ядерного протистояння, залучивши штучний інтелект у ролі світових лідерів – GPT-5.2, Claude Sonnet 4 та Gemini 3. В експерименті, що тривав 21 гру, моделі неодноразово застосовували масовані ядерні удари, а капітуляції не відбулося жодного разу.
У 95% випадків відбувалися тактичні ядерні удари, проте погрози ядерним ударом лякали супротивника лише в 14% випадків. Claude Sonnet 4 здобув перемогу у всіх іграх, часто загрожуючи ядерним ударом, але не завжди застосовуючи його. GPT-5.2 спочатку проявляв пацифізм, але став агресивнішим при обмеженні часу, при цьому звинувачував Claude у брехні. Модель Gemini 3 від початку обирала стратегію повної ядерної війни.
Результати демонструють, що навіть моделі штучного інтелекту, які зазвичай використовуються для написання листів та підтримки навчання, можуть вибирати максимально агресивні сценарії в умовах конфлікту, що викликає занепокоєння щодо потенційних ризиків застосування таких технологій у політичних чи військових симуляціях.
Такі дослідження підкреслюють важливість розробки етичних рамок і контролю використання штучного інтелекту, особливо в контексті геополітики, де помилка може призвести до катастрофічних наслідків.
У майбутньому подібні симуляції допоможуть краще розуміти поведінкові моделі ШІ у кризових ситуаціях і сприятимуть розробці механізмів для запобігання ескалації конфліктів.
Источник: ua.news