Дослідник штучного інтелекту береться за виборчі підробки

Дмитро Сизов

Протягом майже 30 років Орен Етціоні був одним з найбільш оптимістичних дослідників штучного інтелекту.

02DEE.jpg (47 KB)

Але в 2019 році доктор Етціоні, професор Вашингтонського університету та виконавчий директор-засновник Інституту ШІ Аллена, став одним із перших дослідників, які попередили, що нова порода ШІ прискорить поширення дезінформації в Інтернеті . А до середини минулого року, за його словами, він був засмучений тим, що створені штучним інтелектом дипфейки призведуть до серйозних виборів. У січні він заснував некомерційну організацію TrueMedia.org , сподіваючись боротися з цією загрозою.

У вівторок організація випустила безкоштовні інструменти для виявлення цифрової дезінформації з планом надати їх журналістам, перевіряючим факти та будь-кому іншому, хто намагається з’ясувати, що є реальним в Інтернеті.

Інструменти, доступні на веб-сайті TrueMedia.org для будь-кого, схваленого некомерційною організацією, призначені для виявлення підроблених і підроблених зображень, аудіо та відео. Вони переглядають посилання на мультимедійні файли та швидко визначають, чи варто їм довіряти.

Доктор Етціоні вважає ці інструменти вдосконаленням у порівнянні з системою захисту, яка зараз використовується для виявлення оманливого або оманливого AI-контенту. Але в рік, коли мільярди людей у ​​всьому світі збираються голосувати на виборах, він продовжує малювати похмуру картину того, що чекає попереду.

"Я наляканий", - сказав він. «Є дуже велика ймовірність, що ми побачимо цунамі дезінформації».

Лише за перші кілька місяців року технології штучного інтелекту допомогли створити фальшиві голосові дзвінки від президента Байдена , фальшиві зображення та аудіорекламу Тейлор Свіфт , а також ціле фальшиве інтерв’ю , яке, здавалося, показало, що український чиновник приписує відповідальність за теракт у Москві. Виявити таку дезінформацію вже складно — і індустрія технологій продовжує випускати все більш потужні системи штучного інтелекту, які створюватимуть дедалі переконливіші глибокі фейки та ускладнюватимуть виявлення.

Багато дослідників штучного інтелекту попереджають, що загроза набирає обертів. Минулого місяця більше тисячі людей, включаючи доктора Етціоні та кількох інших видатних дослідників штучного інтелекту, підписали відкритий лист із закликом прийняти закони, які передбачають відповідальність розробників і розповсюджувачів аудіо- та візуальних послуг штучного інтелекту, якщо їх технологію легко використовувати для створення шкідливих deepfakes.

На заході, організованому Колумбійським університетом у четвер, Гілларі Клінтон, колишній держсекретар, взяла інтерв’ю у Еріка Шмідта, колишнього виконавчого директора Google, який попередив, що відео, навіть підроблені, можуть «спричиняти поведінку при голосуванні, поведінку людей, настрої, все».

"Я не думаю, що ми готові", - сказав пан Шмідт. «Протягом наступних кількох років ця проблема значно загостриться. Можливо, а може й не до листопада, але точно в наступному циклі».

Технологічна галузь добре усвідомлює загрозу. Незважаючи на те, що компанії змагаються за розвиток генеративних систем ШІ, вони намагаються обмежити шкоду , яку можуть завдати ці технології. Anthropic, Google, Meta та OpenAI оголосили про плани обмежити або позначити використання своїх служб штучного інтелекту, пов’язане з виборами . У лютому 20 технологічних компаній, включно з Amazon, Microsoft, TikTok і X, підписали добровільну угоду про запобігання зриву голосування через оманливий вміст ШІ.

Це може бути викликом. Компанії часто випускають свої технології як програмне забезпечення з «відкритим вихідним кодом», тобто кожен може вільно використовувати та змінювати їх без обмежень . Експерти кажуть, що технологія, яка використовується для створення глибоких фейків — результат величезних інвестицій багатьох найбільших світових компаній — завжди випереджатиме технології, призначені для виявлення дезінформації.

Минулого тижня під час інтерв’ю The New York Times доктор Етціоні показав, як легко створити дипфейк. Використовуючи службу дочірньої некомерційної організації CivAI , яка використовує інструменти штучного інтелекту, доступні в Інтернеті, щоб продемонструвати небезпеку цих технологій, він миттєво створив фотографії себе у в’язниці — де він ніколи не був.

«Коли ти бачиш, як тебе підробляють, це надзвичайно страшно», – сказав він.

Пізніше він створив дипфейк себе на лікарняному ліжку — образ, який, на його думку, міг би вплинути на вибори, якщо його застосувати до пана Байдена чи колишнього президента Дональда Дж. Трампа безпосередньо перед виборами.

Зображення
Фальшиве зображення людини на лікарняному ліжку.
Зображення глибокого фейку, створене доктором Етціоні, на якому він зображений на лікарняному ліжку.Кредит...через Орен Етціоні

Інструменти TrueMedia призначені для виявлення подібних підробок. Більше десятка стартапів пропонують подібні технології .

Але доктор Етціоні, зауважуючи ефективність інструменту його групи, сказав, що жоден детектор не є ідеальним, тому що вони керуються ймовірностями. Служби виявлення Deepfeke були введені в оману, оголосивши зображення роботів, що цілуються, і гігантських неандертальців справжніми фотографіями, що викликає занепокоєння, що такі інструменти можуть ще більше підірвати довіру суспільства до фактів і доказів.

Коли доктор Етціоні надав інструментам TrueMedia відомий глибокий фейк містера Трампа, який сидить на притулку з групою молодих темношкірих чоловіків, вони назвали це «дуже підозрілим» — їхній найвищий рівень довіри. Коли він завантажив інший відомий дипфейк містера Трампа з закривавленими пальцями, вони були «невпевнені», справжній він чи фейковий.

Зображення
Фальшива фотографія Дональда Трампа, що позує з групою молодих темношкірих чоловіків.
Інструмент TrueMedia назвав «дуже підозрілим» дипфейк колишнього президента Дональда Дж. Трампа, який сидить на притулку з групою молодих темношкірих чоловіків.
Зображення
Фальшиве зображення пана Трампа із закривавленими руками.
Але дипфейк містера Трампа із закривавленими пальцями був позначений як «непевний».

«Навіть використовуючи найкращі інструменти, ви не можете бути впевнені», — сказав він.

Федеральна комісія зі зв’язку нещодавно заборонила автоматичні дзвінки, згенеровані ШІ . Деякі компанії, включно з OpenAI і Meta, тепер позначають водяними знаками зображення, згенеровані ШІ. І дослідники шукають додаткові способи відокремлення справжнього від підробки.

Університет Меріленда розробляє криптографічну систему на основі QR-кодів для автентифікації незмінних живих записів. Дослідження , опубліковане минулого місяця, попросило десятки дорослих дихати, ковтати та думати під час розмови, щоб їхні моделі пауз у мовленні можна було порівняти з ритмами клонованого аудіо.

Але, як і багато інших експертів, доктор Етціоні попереджає, що водяні знаки на зображеннях легко видалити. І хоча він присвятив свою кар’єру боротьбі з дипфейками, він визнає, що інструментам виявлення буде важко перевершити нові генеративні технології ШІ.

Відколи він створив TrueMedia.org, OpenAI представив дві нові технології, які обіцяють зробити його роботу ще складнішою. З 15-секундного запису можна відтворити голос людини . Інший може створювати відео з повним рухом, які виглядають як щось із голлівудського фільму . OpenAI ще не ділиться цими інструментами з громадськістю, оскільки працює над тим, щоб зрозуміти потенційні небезпеки.

(The Times подала до суду на OpenAI та її партнера Microsoft за позовами про порушення авторських прав, пов’язаних із системами штучного інтелекту, які генерують текст.)

Зрештою, сказав доктор Етціоні, боротьба з цією проблемою вимагатиме широкого співробітництва між урядовими регуляторами, компаніями, що створюють технології штучного інтелекту, і технологічними гігантами, які контролюють веб-браузери та соціальні медіа-мережі, де поширюється дезінформація. Водночас він зазначив, що ймовірність того, що це станеться до осінніх виборів, мала.

«Ми намагаємося дати людям найкращу технічну оцінку того, що перед ними», — сказав він. «Їм ще потрібно вирішити, чи це реально».