ИИ стал создавать абсолютно реалистичные фотографии людей

Ирина Фоменко

Искусственный интеллект развивается с поразительной скоростью – настолько быстро, что зачастую трудно отследить. Однако есть одна область, где прогресс слишком уж явен - использование нейронных сетей для создания фейковых изображений, сообщает The Verge.

1.png (287 KB)

На этой картинке - четырехлетний прогресс в создании изображений искусственным интеллектом. Слева – фото, сгенерированные ИИ в 2014 году с помощью генеративно-состязательной сети (GAN), справа – изображения, созданные в этом месяце.

6.png (469 KB)

Эти реалистичные лица - работа исследователей из Nvidia. В своей статье, опубликованной на прошлой неделе, они описывают изменение базовой архитектуры GAN для создания изображений. Посмотрите на фотографии ниже. Если бы вы не знали, что они фейковые, могли бы вы заметить разницу?

2.png (375 KB)

Что особенно интересно, эти поддельные лица также можно легко модифицировать. Инженеры Nvidia использовали метод, известный как "передача особенностей" - характеристики одного изображения смешиваются с другим. Этот же метод используется в таких популярных приложениях, как Prisma и Facebook.

Применение "передачи особенностей" к созданию фейковых изображений лиц позволило исследователям Nvidia модифицировать процесс генерирования. В таблице ниже вы можете увидеть это в действии. Исходное изображение реального человека (верхний ряд) имеет черты лица другого человека (правая колонка), наложенные на него. Особенности, такие как кожа и цвет волос, смешиваются вместе, создавая то, что кажется совершенно новым человеком.

3.png (461 KB)

Конечно, умение ИИ создавать реалистичные фейковые лица вызывает озабоченность у многих экспертов, поскольку эти инструменты могут использоваться для дезинформации и пропаганды, могут подорвать доверие общественности к графическим доказательствам, а сама тенденция может нанести ущерб как системе правосудия, так и политике.

С одной стороны, способность создавать лица получила особое внимание в сообществе ИИ. Вы не сможете сфабриковать любое изображение с той же точностью – есть серьезные ограничения. Исследователи Nvidia потратили неделю на обучение своей модели на восьми графических процессорах Tesla, чтобы создать эти лица.

4.png (746 KB)

Есть несколько подсказок, благодаря которым можно обнаружить подделку. Художник и программист Кайл Макдональд перечислил ряд советов: волосы, например, очень сложно подделать – они часто выглядят слишком ровными, будто нарисованные кистью, или слишком размытые.

7.png (536 KB)

111.png (336 KB)

Также ИИ не может воссоздать человеческую симметрию лица – ИИ размещает уши на разных уровнях или делает глаза разных цветов.

12.jpeg (47 KB)

13.jpeg (90 KB)

5.png (223 KB)

Кроме того, искусственных интеллект пока не справляется с созданием текста или чисел, которые выглядят, как неразборчивые кляксы.

8.png (327 KB)

9.png (293 KB)

К счастью, эксперты уже думают о новых способах аутентификации цифровых фотографий. Некоторые решения уже есть - например, приложения для камер, которые помечают снимки геокодами, чтобы проверить, когда и где они были сделаны. В течение десятилетий будет битва между фейками искусственного интеллекта и аутентификацией изображений. И на данный момент ИИ решительно выходит в лидеры.