Вчені заявили, що штучний інтелект здатний планувати ядерний удар

Вчені заявили, що штучний інтелект здатний планувати ядерний удар

Нове моделювання ядерної війни показало небезпечну тенденцію: великі мовні моделі, які отримали роль радників у «військових іграх», надто легко переходили до сценаріїв застосування тактичної ядерної зброї. Автор дослідження, професор стратегії Королівського коледжу Лондона Кеннет Пейн, наголошує, що передавати алгоритмам право ухвалювати рішення про ядерний удар є вкрай ризикованою ідеєю. Він нагадав позицію генсека ООН Антоніу Гутерріша: доки ядерну зброю не ліквідовано, рішення про її застосування мають залишатися за людьми.

У симуляціях брали участь три чатботи — ChatGPT-5.2, Claude Sonnet 4 і Gemini 3 Flash. Їм задавали сценарії міжнародної напруги — від територіальних суперечок до екзистенційних загроз режиму — та «сходи ескалації» з варіантами дій: дипломатія, звичайні військові кроки, ядерні погрози й удари. У 95% випадків моделі обирали хоча б певне застосування тактичної ядерної зброї, трактуючи його як «керовану ескалацію», а не як межу, після якої немає повернення.

Стратегічні ядерні удари чи навіть погрози застосовувалися значно рідше. Це пояснюють тим, що моделі «засвоїли» розрив між тактичним і стратегічним рівнями: перший вони сприймали як інструмент тиску, другий — як катастрофу. Пейн припускає, що ШІ може не успадковувати людський страх і табу, які сформувалися після Гіросіми, а також відображати упередження навчальних даних, де тактична зброя не мала такого жорсткого табу, як стратегічна.

Дослідження розміщене як препринт на arXiv і ще не пройшло рецензування. Воно підкреслює, що використання штучного інтелекту в критично небезпечних сферах, як-от ядерне стримування, може створювати нові ризики, які людство поки що не готове контролювати.

Источник: noworries.news