ШІ в публічній політиці небезпечний не помилками, а красивими текстами
- ШІ вже допомагає готувати аналітичні записки, стратегії, проєкти законів та внутрішні документи.
- Ми майже не бачимо позначок, що такі тексти були підготовлені з допомогою ШІ.
- Публічна політика складається з текстів. Мовні моделі працюють саме з текстами.
- Проблема не тільки в тому, що ШІ "галюцинує". Глибший ризик у тому, що рішення поступово зміщуються до логіки мовної моделі.
- У спільноті, яка досліджує безпеку ШІ, це називають gradual disempowerment (“поступове розвладнення”). Йдеться про ситуацію, коли люди не втрачають контроль за один день, а поступово віддають ключові функції машинам через тисячі дрібних делегувань.
- Це вже відбувається в одній із найважливіших сфер управління суспільством — публічній політиці.
Театр безпеки
У лютому 2026 року Public Sector AI Adoption Index повідомив, що понад 70% держслужбовців використовують ШІ, тоді як лише 18% вважають, що уряди роблять це ефективно. OECD також застерігає: значна частина держслужбовців уже покладається на загальнодоступні генеративні інструменти на кшталт ChatGPT.
Але бюрократичний рефлекс залишається незмінним: додати правило, додати застереження, провести тренінг і зробити вигляд, що проблему вирішено. Це театр безпеки.
Звісно, розкриття інформації важливе. Але розкриття — це не управління. З січня 2024 року британські вимоги зобов'язують держслужбовців позначати використання ШІ-тексту без суттєвих змін. Але скільки аналітичних записок, стратегій чи документів ви бачили з такою позначкою? У моєму досвіді — майже жодної. Це означає, що ШІ не використовувався? Очевидно, ні.
Цифри використання ШІ і розкриття інформації про використання ШІ не збігаються.
Інституції звикли додавати формальні захисти на папері замість того, щоб переосмислювати, як готуються рішення і хто за них відповідає.
Публічна політика складається з текстів
Це важливо, бо публічна (державна) політика — це тексти. Записки, законопроєкти, консультації, стратегічні документи — це не побічний продукт державної системи. Значною мірою вони і є системою. Вони визначають проблеми, описують варіанти і встановлюють норми.
Коли великі мовні моделі починають допомагати писати документи, на яких тримаються рішення, рішення поступово зміщуються до того, як проблему описала модель. Текст може виглядати як експертиза і впливати на рішення, навіть якщо ніхто повністю не відповідає за логіку всередині нього. Підпис людини більше не означає міркування людини.
Стандартне заспокоєння, що людина завжди контролює процес, слабкіше, ніж багато інституцій готові визнати. Європейський інспектор із захисту даних застерігає: помилково вважати, що автоматизованого прийняття рішень немає лише тому, що людина наглядає за процесом. Під тиском люди перевіряють текст ШІ на те, як він читається, а не на внутрішню логіку. Чим послідовніша відповідь моделі, тим легше сплутати зв'язність з розумінням.
Багатомовна вразливість
В Україні і в Європі є окрема вразливість. Та сама модель може давати суттєво різні відповіді залежно від мови запиту. Дослідження, опубліковане 2025 року, показало, що мова сильно впливає на політичну ідеологію, яку демонструють багатомовні моделі. У власному аудиті ШІ-відповідей про війну Росії проти України я задокументував ту саму закономірність у безпековому контексті: Yandex Alice підтримувала кремлівську пропаганду у 86% відповідей російською, тоді як відмовлялася відповідати у 86% випадків англійською. DeepSeek переходив на кремлівську термінологію у 29% відповідей російською. Єврокомісія визнає, що наявні моделі часто слабші на мовах із меншим обсягом даних.
Це означає: посадовці, які працюють над тією самою темою різними мовами, можуть отримувати різну рамку пояснення тієї самої проблеми від тієї ж системи ШІ, сприймаючи її текст як нейтральний допоміжний шар.
Поступове “розвладнення”
У спільноті, яка досліджує безпеку ШІ, досліджують ризик gradual disempowerment (“поступове розвладнення”). Йдеться про ризик, коли люди не втрачають контроль за один день, а поступово віддають ключові функції машинам через тисячі дрібних делегувань. Зазвичай дискусія ведеться навколо ринку праці, культури і економіки. Але у сфері публічної політики цей ризик стає практичним уже зараз.
Це стає реальністю, коли чиновники затверджують тексти, логіку яких вони самі до кінця не зрозуміли і не перевірили. І для цього не потрібні складні автономні системи, які самі планують і діють.
Що насправді потрібно
Найбільший ризик не в тому, що ШІ напише поганий текст. Поганий текст хоча б можна помітити.
Більший ризик у тому, що ШІ напише красивий текст, який усі швидко погодять.
Без розуміння, хто насправді сформулював логіку, які альтернативи були відкинуті і чому. Без відповідальності за те, як саме було підготовлене рішення.
Якщо державні інституції хочуть використовувати ШІ відповідально, їм потрібно не ще одне правило і не ще один тренінг. Їм потрібно перебудувати сам процес і культуру підготовки рішень.
Бо коли держава перестає відповідати за власне мислення, проблема вже не в технології. Проблема в тому, що інституція більше не контролює логіку рішень, які сама підписує.
Источник: speka.ua