Голосові клони ШІ, імітуючи політиків, впливають на вибори

Дмитро Сизов
Голосові клони ШІ, імітуючи політиків, впливають на вибори

За кілька днів до ключових національних виборів у Словаччині в соціальних мережах почав широко поширюватися, здавалося б, проклятий аудіозапис. Голос, схожий на лідера Прогресивної партії країни, Міхала Шимечку, описав схему фальсифікації голосування, зокрема шляхом підкупу членів маргіналізованого ромського населення країни.

Через два тижні виник ще один очевидний політичний скандал: лідер Лейбористської партії Сполученого Королівства, здавалося, був спійманий на записі, коли він лаяв співробітника в нецензурній тираді, опублікованій на X, колишній Twitter.

Обидва ролики незабаром були розвінчані фахівцями з перевірки фактів як ймовірні підробки, причому голоси мали яскраві ознаки того, що вони були згенеровані або оброблені програмним забезпеченням штучного інтелекту. Але дописи залишаються на таких платформах, як Facebook і X, викликаючи обурені коментарі користувачів, які вважають, що вони справжні.

Швидкий прогрес штучного інтелекту полегшив створення правдоподібного звуку, дозволяючи будь-кому, від іноземних акторів до шанувальників музики, копіювати чийсь голос, що призвело до потоку підробленого вмісту в Інтернеті, сіючи розбрат, плутанину та гнів.

Минулого тижня актор Том Хенкс попередив своїх підписників у соцмережах, що погані актори використовували його голос, щоб фальшиво імітувати, як він розповідає про стоматологічні плани. Протягом літа облікові записи TikTok використовували AI дикторів для відображення фейкових новин, які помилково пов’язували колишнього президента Барака Обаму зі смертю його особистого кухаря.

У четвер двопартійна група сенаторів оголосила про проєкт закону під назвою «Закон про заборону підробок», який передбачає покарання за виробництво або розповсюдження створеної ШІ копії когось в аудіовізуальних або голосових записах без їхньої згоди.

Попри те, що експерти давно передбачають, що генеративний штучний інтелект призведе до цунамі підроблених фотографій і відео, створюючи дезінформаційний ландшафт, де ніхто не зможе довіряти всьому, що вони бачать, — те, що виникає, — це аудіо криза.

«Це не гіпотетично», — сказав Хані Фарід, професор цифрової криміналістики Каліфорнійського університету в Берклі. «Ви говорите про насильство, ви говорите про викрадення виборів, ви говорите про шахрайство — [це має] реальні наслідки для окремих людей, для суспільств і демократій».

За останній рік технологія клонування голосу стрімко просунулася вперед, а поширення дешевих, легкодоступних інструментів в Інтернеті робить так, що майже кожен може запустити складну аудіокампанію зі своєї спальні.

Звичайній людині важко помітити підроблені аудіокампанії, а зображення та відео все ще мають помітні дивацтва — наприклад, деформовані руки та перекошені слова.