Створення Deepfakes стає простішим та дешевшим завдяки ШІ
Для Джо Рогана, комедійного актора, який став подкастером, було б не зовсім нехарактерно схвалити бренд кави для чоловіків, який «підвищує лібідо».
Але коли нещодавно в TikTok поширилося відео, на якому містер Роган і його гість Ендрю Губерман роздають каву, деякі глядачі були шоковані, включаючи доктора Губермана.
«Так, це фейк», — написав доктор Губерман у Твіттері після того, як побачив рекламу, в якій він, схоже, хвалив потенціал кави для підвищення рівня тестостерону, хоча він ніколи цього не робив.
Реклама була одним із зростаючої кількості підроблених відео в соціальних мережах, створених за допомогою технології штучного інтелекту. Експерти кажуть, що голос пана Рогана був синтезований за допомогою інструментів ШІ, які імітують голоси знаменитостей. Коментарі доктора Хубермана були вирвані з інтерв’ю, яке не має зв’язку.
Створення реалістичних підроблених відео, які часто називають глибокими фейками, колись потребувало складного програмного забезпечення, щоб помістити обличчя однієї людини в інше . Але тепер багато інструментів для їх створення доступні звичайним споживачам — навіть у додатках для смартфонів, і часто за невелику суму або без грошей.
Нові змінені відео — поки що переважно робота виробників мемів і маркетологів — стали вірусними на сайтах соціальних мереж, таких як TikTok і Twitter. Контент, який вони виробляють, який дослідники іноді називають дешевою підробкою , працює шляхом клонування голосів знаменитостей, зміни рухів рота відповідно до альтернативного звуку та написання переконливих діалогів.
Відео та доступна технологія, що стоїть за ними, змушують деяких дослідників штучного інтелекту хвилюватися про їхню небезпеку та викликають нове занепокоєння щодо того, чи готові компанії соціальних медіа пом’якшувати зростаючу цифрову підробку.
Спостерігачі за дезінформацією також готуються до хвилі цифрових фейків, які можуть ввести глядачів в оману або ускладнити визначення правди чи брехні в Інтернеті.
«Що інше, так це те, що тепер це може зробити кожен», — сказала Брітт Періс, доцент кафедри бібліотечних та інформаційних наук Ратгерського університету, яка допомогла створити термін «дешеві підробки». «Це не просто люди зі складною обчислювальною технологією та досить складним обчислювальним ноу-хау. Натомість це безкоштовний додаток».
У TikTok та інших місцях протягом багатьох років циркулювало купу маніпульованого контенту , як правило, з використанням більш домашніх трюків, таких як ретельне редагування або заміна одного аудіокліпу іншим. В одному відео на TikTok віце-президент Камала Гарріс, здається, сказала, що всі госпіталізовані через Covid-19 були вакциновані. Фактично, вона сказала, що пацієнти були нещеплені .
Дослідницька компанія Graphika, яка вивчає дезінформацію, помітила дипфейки вигаданих ведучих новин , які облікові записи прокитайських ботів поширювали наприкінці минулого року, у першому відомому прикладі використання технології для кампаній впливу на державу.
Але кілька нових інструментів пропонують подібну технологію звичайним користувачам Інтернету, даючи комікам і партіянам можливість робити власні переконливі пародії.
Минулого місяця було поширено фейкове відео, на якому показано, як президент Байден оголошує національний призов до війни між Росією та Україною. Відео було створено командою «Human Events Daily», подкастом і прямим ефіром, який проводить Джек Пособєць, правий впливовий діяч, відомий поширенням теорій змови.
У сегменті пояснення відео пан Пособець сказав, що його команда створила його за допомогою технології ШІ. У твіті про відео від The Patriot Oasis, консервативного облікового запису, використовувався ярлик екстрених новин, не вказуючи, що відео є фейком. Твіт переглянули понад вісім мільйонів разів.
У багатьох відеокліпах із синтезованими голосами використовується технологія ElevenLabs, американського стартапу, співзасновником якого є колишній інженер Google. У листопаді компанія представила інструмент клонування мови, який можна навчити відтворювати голоси за лічені секунди.
Минулого місяця ElevenLabs привернула увагу після того, як 4chan, дошка оголошень, відома расистським і конспірологічним вмістом, використовувала цей інструмент для поширення ненависницьких повідомлень. В одному прикладі користувачі 4chan створили аудіозапис антисемітського тексту за допомогою згенерованого комп’ютером голосу, який імітував акторку Емму Вотсон. Материнська плата раніше повідомляла про використання 4chan аудіотехнології.
ElevenLabs повідомила у Twitter, що запровадить нові гарантії , як-от обмеження клонування голосу платними обліковими записами та надання нового інструменту виявлення ШІ. Але користувачі 4chan сказали, що створять власну версію технології клонування голосу з відкритим вихідним кодом, опублікувавши демонстраційні ролики, які схожі на аудіо, створене ElevenLabs.
«Ми хочемо мати наш власний штучний інтелект із можливістю творити», — написав анонімний користувач 4chan у дописі про проект.
У електронному листі прес-секретар ElevenLabs повідомила, що компанія прагне співпрацювати з іншими розробниками штучного інтелекту для створення універсальної системи виявлення, яка може бути прийнята в усій галузі.
Відео з використанням клонованих голосів, створених за допомогою інструменту ElevenLabs або схожої технології, останніми тижнями стали вірусними. Одна з них, опублікована в Твіттері Ілоном Маском, власником сайту, показала ненормативну розмову між паном Роганом, паном Маском і Джорданом Петерсоном, канадським активістом за права чоловіків. В іншому, опублікованому на YouTube, містер Роган, здається, брав інтерв’ю у фейкової версії прем’єр-міністра Канади Джастіна Трюдо про його політичні скандали.
«Виробництво таких фейків має бути злочином з обов’язковим десятирічним ув’язненням», — сказав пан Петерсон у твіті про підроблені відео з його голосом. «Ця технологія неймовірно небезпечна».
У своїй заяві речниця YouTube заявила, що відео пана Рогана та пана Трюдо не порушує політику платформи, оскільки воно « забезпечує достатній контекст ». (Творець описав це як «підроблене відео».) Компанія заявила, що її політика щодо дезінформації забороняє вміст, який підроблено в оманливий спосіб.
Експерти, які вивчають технологію deepfake, припустили, що фейкова реклама з містером Роганом і доктором Хуберманом, швидше за все, була створена за допомогою програми клонування голосу , хоча точний інструмент, який використовувався, невідомий. Аудіозапис пана Рогана було з’єднано в справжнє інтерв’ю з доктором Хуберманом, яке обговорювало тестостерон.
Результати не ідеальні. Відео пана Рогана було взято з інтерв’ю Федора Горста, професійного гравця в більярд, опублікованого в грудні. Рухи рота пана Рогана не відповідають звуку, а його голос часом звучить неприродно. Важко сказати, чи переконало це відео користувачів TikTok: воно привернуло набагато більше уваги після того, як його помітили за вражаючу підробку.
Політика TikTok забороняє цифрові підробки, «які вводять користувачів в оману шляхом спотворення правдивих подій і завдають значної шкоди суб’єкту відео, іншим особам або суспільству». Кілька відео було видалено після того, як The New York Times повідомила про них компанії. Twitter також видалив деякі відео.
Представник TikTok сказав, що компанія використовувала «поєднання технологій і людської модерації для виявлення та видалення» маніпуляційних відео, але відмовився розповісти про свої методи.
Пан Роган і компанія, представлена у фейковій рекламі, не відповіли на запити про коментарі.
Багато компаній соціальних мереж, включаючи Meta і Twitch, заборонили дипфейки та маніпульовані відео, які вводять користувачів в оману. Компанія Meta, яка володіє Facebook і Instagram, провела конкурс у 2021 році на розробку програм, здатних ідентифікувати дипфейки, в результаті чого один інструмент міг виявити їх у 83 відсотках випадків.
Федеральні регулятори повільно реагують. Один із федеральних законів від 2019 року вимагав звіт про застосування дипфейків як озброєння іноземців, вимагав від урядових установ повідомляти Конгрес, якщо дипфейки спрямовані на вибори в Сполучених Штатах, і створив премію для заохочення досліджень інструментів, які можуть виявляти дипфейки.
«Ми не можемо чекати два роки, поки закони будуть прийняті», — сказав Равіт Дотан, докторант, який керує Лабораторією спільної відповідальності штучного інтелекту в Університеті Пітсбурга. «На той час збиток може бути занадто великим. У нас наближаються вибори тут, у США, це буде проблема».