Що буде далі. Діпфейки у 2025 році стало майже неможливо відрізнити від реальності

Що буде далі. Діпфейки у 2025 році стало майже неможливо відрізнити від реальності

Упродовж 2025 року технології створення діпфейків зробили різкий стрибок. Згенеровані штучним інтелектом обличчя, голоси та відео з повною імітацією рухів реальних людей стали значно якіснішими, ніж очікували навіть фахівці кілька років тому. Водночас такі матеріали все частіше використовують для обману.

Про це пише The Conversation.

У повсякденних ситуаціях — зокрема під час відеодзвінків із низькою якістю або перегляду контенту в соцмережах, діпфейки вже настільки реалістичні, що здатні вводити в оману звичайних користувачів. Фактично для більшості людей, а іноді й для організацій, синтетичні відео та аудіо стало не відрізнити від справжніх записів.

Зросла не лише якість, а й кількість діпфейків. За оцінкою компанії з кібербезпеки DeepStrike, їхня кількість в інтернеті зросла приблизно з 500 тисяч у 2023 році до близько 8 мільйонів у 2025-му. Річне зростання — майже 900%.

Автор матеріалу, науковець у галузі комп’ютерних наук Сівей Лю з Університету Баффало, зазначає, що у 2026 році ситуація може ще ускладнитися. За його словами, діпфейки рухаються до формату «синтетичних виконавців», які зможуть реагувати на людей у реальному часі.

Однією з ключових змін стали нові моделі генерації відео, які забезпечують так звану часову узгодженість. Простими словами, відео виглядає логічним від кадру до кадру: рухи плавні, обличчя стабільні, без характерних спотворень навколо очей чи щелепи, які раніше допомагали викривати підробки.

Другий важливий прорив — клонування голосу. Тепер достатньо кількох секунд аудіо, щоб створити переконливу копію голосу з природною інтонацією, емоціями, паузами та навіть звуками дихання. Цю технологію вже активно використовують шахраї. Деякі великі торговельні мережі повідомляють, що отримують понад тисячу дзвінків на день від шахраїв із голосами, згенерованими ШІ.

Третій чинник — доступність інструментів. Нові версії сервісів на кшталт OpenAI Sora 2, Google Veo 3 та численні стартапи значно спростили процес. Тепер будь-хто може описати ідею, згенерувати сценарій за допомогою мовної моделі й отримати готове відео чи аудіо за лічені хвилини. У результаті масове створення складних діпфейків стало доступним широкому колу людей.

Поєднання великої кількості діпфейків і їхньої схожості на реальних людей ускладнює виявлення підробок. Особливо це проблема в середовищі, де інформація поширюється швидше, ніж її встигають перевірити. Уже зафіксовано шкоду — від поширення дезінформації до цільового цькування та фінансових шахрайств.

За прогнозами дослідника, наступний етап — діпфейки в реальному часі. Йдеться про відеоучасників онлайн-дзвінків або інтерактивних аватарів, які можуть миттєво змінювати міміку, голос і манеру поведінки залежно від ситуації. Це означає перехід від просто «схожий на людину X» до «поводиться як людина X з часом».

У таких умовах покладатися лише на людське око вже не буде ефективно. Захист, за словами автора, має зміщуватися на рівень інфраструктури: криптографічне підтвердження походження контенту, стандарти перевірки автентичності та спеціальні інструменти аналізу медіа.

Простого уважнішого перегляду зображень уже недостатньо.

Источник: techno.nv.ua