Інструменти для виявлення Deepfakes відстають від злочинного контенту
Зараз штучний інтелект настільки потужний, що може змусити людей повірити, що зображення Папи Франциска в білому пухкому пальто Balenciaga є справжнім, але цифрові інструменти для надійної ідентифікації підроблених зображень важко встигають за темпами створення контенту.
Просто запитайте дослідників Школи інформаційних технологій Університету Дікіна за межами Мельбурна. Згідно з індексом штучного інтелекту Стенфордського університету за 2023 рік, їхній алгоритм показав найкращі результати в ідентифікації змінених зображень знаменитостей у наборі так званих дипфейків минулого року.
«Це досить хороша продуктивність», — сказав Чанг-Цун Лі, професор Центру кіберстійкості та довіри Дікіна, який розробив алгоритм, який виявився правильним у 78% випадків. «Але ця технологія все ще знаходиться в стадії розробки». Лі сказав, що метод потребує подальшого вдосконалення, перш ніж він буде готовий до комерційного використання.
Deepfakes існують і викликають занепокоєння протягом багатьох років. Колишній спікер Палати представників Ненсі Пелосі, схоже, невиразно вимовляла свої слова на підробленому відео в 2019 році, яке широко поширювалося в соціальних мережах. Meta Platforms Inc. Приблизно через місяць головного виконавчого директора Марка Цукерберга побачили на відео, зміненому таким чином, щоб вийшло враження, що він сказав щось, чого не сказав, після того як раніше Facebook відмовився видалити відео Пелосі.
У той час як зображення Папи в пуховик було відносно нешкідливою маніпуляцією, потенціал завдати серйозної шкоди від глибоких фейків, від маніпуляцій на виборах до статевих актів, зріс із розвитком технологій. Минулого року фейкове відео, на якому президент України Володимир Зеленський просить своїх військових здатися Росії, могло мати серйозні наслідки.
Великі технологічні компанії, а також хвиля стартапів вклали десятки мільярдів доларів у генеративний штучний інтелект, щоб претендувати на провідну роль у технології, яка може змінити обличчя всього, від пошукових систем до відеоігор . Однак світовий ринок технологій для викорінення маніпуляційного контенту відносно невеликий. За даними дослідницької компанії HSRC, у 2020 році світовий ринок виявлення глибоких фейків оцінювався в 3,86 мільярда доларів США, і очікується, що до 2026 року він буде зростати на 42% щорічно.
Експерти погоджуються, що створенню штучного інтелекту приділяється надмірна увага, а виявленню – недостатньо, – сказала Клер Лейбович, керівник програми доброчесності штучного інтелекту та медіа некомерційної організації The Partnership on AI.
У той час як шум навколо технології, де домінують такі додатки, як ChatGPT OpenAI, досяг апогею, керівники від генерального директора Tesla Inc. Ілона Маска до генерального директора Alphabet Inc. Сундар Пічаї попередили про ризики надто швидкого руху .
Мине деякий час, перш ніж інструменти виявлення будуть готові до використання для боротьби з хвилею реалістично виглядаючих змінених зображень від генеративних програм штучного інтелекту, таких як Midjourney, яка створила зображення Папи, і OpenAI DALL-E . Частково проблема полягає у непомірно високих витратах на розробку точного виявлення, і немає юридичних чи фінансових стимулів для цього.
«Я щодня розмовляю з керівниками служби безпеки, — сказав Джефф Поллард, аналітик Forrester Research. «Вони стурбовані генеративним ШІ. Але коли мова заходить про щось на зразок виявлення глибоких фейків, вони не витрачають бюджет на це. У них стільки інших проблем».
Тим не менш, кілька стартапів, таких як нідерландська Sensity AI і естонська Sentinel , розробляють технологію виявлення глибоких фейків, як і багато великих технологічних компаній. Корпорація Intel запустила свій продукт FakeCatcher у листопаді минулого року в рамках своєї роботи над відповідальним ШІ. Технологія шукає справжні підказки в реальних відео, оцінюючи людські риси, такі як кровотік у пікселях відео, і може виявляти підробки з точністю 96%, за словами компанії.
«Мотивацією для виявлення глибоких фейків зараз є не гроші; Це допомагає зменшити дезінформацію в Інтернеті», – сказав Ілке Демір, старший науковий співробітник Intel.
Найкращі стартапи з виявлення дипфейків за сумою, зібраною у 2023 році
Джерело: Pitchbook
Поки що стартапи з виявлення глибоких фейків в основному обслуговують уряди та компанії, які хочуть зменшити шахрайство, і не націлені на споживачів. Reality Defender , стартап, що підтримується Y-Combinator, стягує комісію залежно від кількості виконаних сканувань. Ці витрати коливаються від десятків тисяч доларів до мільйонів, щоб покрити дорогі чіпи обробки графіки та потужність хмарних обчислень.
Такі платформи, як Facebook і Twitter, не зобов’язані за законом виявляти та сповіщати про глибокий фейковий вміст на своїх платформах, залишаючи споживачів у невіданні, сказав Бен Колман, генеральний директор Reality Defender. «Єдині організації, які щось роблять, це ті, як банки, які безпосередньо пов’язані з фінансовими шахрайствами».
Це може змінитися, оскільки дипфейки стануть більш витонченими та вплинуть на більше людей. ШІ полегшив копіювання чийогось голосу , і шахрайство зростає. Злочинці використовують такі інструменти, щоб змусити жертв переказати гроші або схвалити фінансові перекази. А вірусна пісня «Heart on My Sleeve», яка стверджувала, що використовує штучний інтелект голосів Дрейка та Вікенда для створення прийнятної копії, викликала юридичні та творчі проблеми в музичній індустрії.