Искусственный интеллект научили подделывать видео и аудио

Искусственный интеллект научили подделывать видео и аудио

На популярной видеоплатформе Netflix вышел фильм Мартина Скорсезе "Ирландец". Главные роли в нем сыграли звезды: Роберт Де Ниро и Аль Пачино. Критики называют картину фильмом года и главным претендентом на премию "Оскар". В "Ирландце" использовали технологию цифрового омоложения, которая основана на искусственном интеллекте. Благодаря ей зрители увидят Роберта Де Ниро в возрасте 20, 40, 60 и 80 лет. Чаще всего подобную технику в англоязычных странах называют deepfake. Как устроен этот феномен, где еще используется и возможно ли от него пострадать – смотрите в нашем сюжете.

В грубом переводе с английского deepfake означает "глубокая подделка". А создается она так: искусственный интеллект обучили менять лица и голоса людей на видео. Таким образом можно заставить любого человека сказать то, чего он не говорил. Ну или сделать. Вот, к примеру, автор ютуб-канала "Мосфейк" заставил российского актера Михаила Ефремова побывать в роли всех актрис в фильме "Ангелы Чарли".

Таких примеров в сети много. Голландская компания Deep Trace, которая занимается кибербезопасностью, выпустила в сентябре исследование. В нем говорится, что число фейковых видео в интернете стремительно растет. И сейчас в сети более 14 тысяч таких подделок. Это в два раза больше, чем в прошлом году. По их словам, 96% из всех фейков – порноролики. В них лица секс-актеров заменяют лицами известных людей. Вот что об этом сказала одна из пострадавших, актриса Скарлетт Йоханссон.

"Ничто не может помешать кому-то вырезать и вставить мой образ на другое тело и сделать его настолько реалистичным, насколько это необходимо. Интернет – это огромная червоточина тьмы, которая пожирает себя", –​ сказала она.

По информации аналитиков Deep Trace, в интернете есть четыре крупных порносайта с поддельными видео, и все они зарабатывают деньги на рекламе. С февраля прошлого года видео на этих ресурсах посмотрели 134 миллиона человек.

"Важно сказать, что прямо сейчас, в первую очередь от этой технологии страдают сотни женщин. Как известные, так и неизвестные женщины. В настоящее время дипфейки практически эксклюзивно нацелены против женщин", – рассказал Генри Айдер, исследователь в Deep Trace.

Исследователи считают, что в будущем злоумышленники смогут использовать дипфейки в политических целях. Как это может работать, показало издание BuzzFeed. Оно опубликовало видео с экс-президентом США Бараком Обамой, который называет действующего главу Белого дома Дональда Трампа засранцем. Это, конечно, была подделка.

"Очевидно, что здесь нужно предусмотреть меры по борьбе с этими дипфейками. Например, то видео, где есть Обама. Или видео должно быть подписано какими-нибудь цифровыми следами устройств, которые их записали. Чтобы всегда можно было верифицировать источник. На мой взгляд, решение этой проблемы состоит в том, чтобы выработать у людей правильное отношение к источникам информации", – говорит завлабораторией нейронных систем МФТИ Михаил Бурцев.

Власти США начали борьбу с дипфейками еще два года назад. Так, один из крупнейших университетов страны, Колорадский университет в Денвере, по заказу Минобороны работает над созданием фальшивых видео. Разработки аналитиков используют сотрудники другого центра, SRI International, которые учатся отличать подлинные видео от фальшивок. На эти цели США уже потратили 68 миллионов долларов. Войну дипфейкам объявили и крупные мировые компании – Facebook и Microsoft запустили конкурс по обнаружению подделок.

"Проблема заключается в нескольких вещах. Во-первых, если говорить о соцсетях, вопрос в том, как научить механизмы находить эти видео. А когда их находят, что именно делать с ними на этих платформах. Разные платформы по-разному подходят к этой проблеме", – рассказывает аналитик Deep Trace.

В 2019-м году совершено первое deepfake-преступление. По данным Wall Street Journal, в марте этого года директор британской энергетической компании отправил поставщику из Венгрии около 240 миллионов долларов. Перевести деньги британцу якобы поручил по телефону глава компании из Германии. Позже выяснилось, что звонивший был мошенником. Он сымитировал голос немецкого руководителя с помощью дипфейка. И сделал это так профессионально, что у британца не возникло никаких подозрений.

"С помощью такой же базы можно будет сделать дипфейк любого голоса. Все, что нужно будет, это два исходника. Исходник того, чей голос меняем, и ваши исходники. И вот здесь как раз будет проще, чем работа с лицом. Потому что заменить ваш голос на голос Ксении Собчак или Познера гораздо легче", – рассказывает московский художник визуальных эффектов Филипп Богдановский.

Если не считать использование дипфейков в порно, то больше всего такие видео создают для кино. Но даже при легальном применении, технология все равно вызывает вопросы. Так, в интернете возмутились съемками фильма о вьетнамской войне, в котором режиссеры решили с помощью графики оживить погибшего 64 года назад актера Джеймса Дина.

"Если "единственный человек", который может сыграть роль в вашем фильме, мертв уже 70 лет, я бы посоветовал вам нанять нового кастинг-директора, прежде чем оживлять труп Джеймса Дина", –​ возмущался голливудский режиссер монтажа Эйден О'брайан.

Российский режиссер и кинопродюсер Илья Шерстобитов не видит ничего плохого в том, чтобы оживлять людей в фильмах. Говорит, что кино – это прежде всего индустрия развлечений.

"Кино - не только об идее. Это прежде всего аттракцион. Когда человек приходит после тяжелого дня, встречается с подружкой, идет в кино. Он должен расслабиться. Получить удовольствие. Это нормально. Никакой проблемы в этом я не вижу. Я думаю, что потомки актера должны получать какие-то деньги. Это абсолютно нормально. Я думаю, что в Голливуде юристы эти вопросы решат быстро" – говорит он.

Шерстобитов рассказал, что в ближайшие годы не планирует использовать дипфейки в своих фильмах. Он считает, что на российском рынке эта технология не будет быстро развиваться. В первую очередь, из-за отсутствия технических возможностей.

"Грубо говоря, из тех, кого я знаю, это могла бы сделать только одна компания. Когда как в Голливуде, их десятка два - компании которые могли бы это делать" – сказал режиссер.

Мнения опрошенных нами экспертов о будущем дипфейков разные: одни говорят, что исскуственный интеллект может быть опасен, другие считают, что государства научатся их выявлять и удалять из сети. Но ясно одно – в будущем фраза "я это видел своими глазами" будет звучать совсем не так убедительно, как сейчас.

Источник: currenttime.tv