Вибори у США під загрозою дезінформації, спричиненої штучним інтелектом

Дмитро Сизов

Експерти попереджають, що вибори наступного року у Британії та США можуть ознаменуватися хвилею дезінформації за допомогою штучного інтелекту, оскільки згенеровані зображення, текст і глибокі фейкові відео стають вірусними за наказом зграй пропагандистських ботів на основі штучного інтелекту.

5828.webp (22 KB)

Сем Альтман, генеральний директор творця ChatGPT, OpenAI, заявив на слуханнях у Конгресі у Вашингтоні цього тижня, що моделі, які стоять за технологією штучного інтелекту останнього покоління, можуть маніпулювати користувачами.

«Загальна здатність цих моделей маніпулювати та переконувати, надавати інтерактивну дезінформацію сам на сам викликає серйозне занепокоєння», — сказав він.

«Регулювання було б досить мудрим: люди повинні знати, чи спілкуються вони зі штучним інтелектом, чи генерується контент, який вони переглядають, чи ні. Здатність справді моделювати … передбачати людей, я думаю, вимагатиме поєднання компаній, які роблять правильні речі, регулювання та громадської освіти».

Прем'єр-міністр Ріші Сунак заявив у четвер, що Велика Британія лідируватиме в обмеженні небезпек ШІ . Занепокоєння щодо цієї технології зросло після прориву в генеративному штучному інтелекті, де такі інструменти, як ChatGPT і Midjourney, створюють переконливий текст, зображення та навіть голос за командою.

У той час як попередні хвилі пропагандистських ботів покладалися на прості попередньо написані повідомлення, що надсилалися масово, або будівлі, повні «оплачуваних тролів», щоб виконувати ручну роботу зі взаємодії з іншими людьми, ChatGPT та інші технології підвищують перспективу масштабного інтерактивного втручання у вибори.

Штучний інтелект, навчений повторювати розмови про Тайвань, кліматичні проблеми чи права ЛГБТ+, може зв’язати політичних опонентів у безрезультатних суперечках, переконуючи при цьому глядачів – у тисячах різних акаунтів у соціальних мережах одночасно.

Професор Майкл Вулдрідж, директор дослідницького відділу штучного інтелекту в Інституті Алана Тюрінга у Великій Британії, сказав, що дезінформація на основі штучного інтелекту є його головною проблемою щодо цієї технології.

«На цей момент з точки зору моїх турбот про ШІ, він займає перше місце в списку. Наближаються вибори у Великій Британії та США, і ми знаємо, що соціальні мережі є неймовірно потужним каналом дезінформації. Але тепер ми знаємо, що генеративний ШІ може виробляти дезінформацію в промислових масштабах», – сказав він.

Вулдрідж сказав, що чат-боти, такі як ChatGPT, можуть створювати спеціальну дезінформацію, націлену, наприклад, на виборця консерваторів у рідних округах, виборців лейбористів у столичному районі чи прихильників республіканців на середньому заході.

«Для тих, хто має невеликий досвід програмування, це одночасна робота, щоб створити фальшиві ідентифікатори та просто почати генерувати ці фальшиві новини», — сказав він.

Після того, як фейкові фотографії арешту Дональда Трампа в Нью-Йорку стали вірусними в березні, незадовго до того, як створені штучним інтелектом зображення папи Франциска в пуховій куртці Balenciaga поширилися ще більше , інші висловили стурбованість тим, що створені зображення використовуються для введення в оману та дезінформації. Але Альтман сказав сенаторам США, що ці побоювання можуть бути перебільшеними.

«Photoshop з’явився на сцені давно, і деякий час людей справді вводили в оману зображення, оброблені в Photoshop, – потім досить швидко зрозуміли, що зображення можуть бути оброблені в Photoshop».

Але оскільки можливості штучного інтелекту стають все більш досконалими, виникають занепокоєння, що стає все важче повірити всьому, що ми зустрічаємо в Інтернеті, будь то дезінформація, коли помилково поширюється неправда, або дезінформація, коли фальшивий наратив генерується та поширюється навмисно .

Наприклад, клонування голосу набуло популярності в січні після появи підробленого відео президента США Джо Байдена, на якому кадри, на яких він розповідає про відправку танків в Україну, трансформувалися за допомогою технології симуляції голосу в атаку на трансгендерів – і був поширений у соціальних мережах.