Все більше фальсифікованих зображень світових лідерів використовується для підриву політики
Дмитро Сизов
Використання неправдивої інформації або зображень для зміни громадської думки не є новим, але прориви в області штучного інтелекту загрожують вивести обман на новий рівень. Ось кілька останніх прикладів дезінформації на основі зображень.
Володимир Зеленський
Минулого року з’явилося відео , на якому український президент закликає своїх бійців скласти зброю та повернутися до своїх родин. Це був аматорський приклад deepfake, термін для обману, який використовує штучний інтелект для створення фальшивого зображення, найчастіше фейкових відео людей. Ролик невідомого походження був явно фейковим і непереконливим. Його також було видалено основними соціальними медіа-платформами, включаючи Facebook та Instagram.
турецькі вибори
За кілька днів до парламентських і президентських виборів у Туреччині в травні президент Реджеп Таїп Ердоган показав на політичному мітингу відео, на якому нібито його головний суперник Кемаль Кілічдароглу отримав підтримку від Робітничої партії Курдистану (РПК). РПК визнана терористичною організацією в Туреччині, США та Великобританії. Відео фактично було двома окремими кліпами, змонтованими разом, але незалежна група перевірки фактів заявила, що відео все одно було широко поширене в Інтернеті. Ердоган виграв вибори.
Інший кандидат у президенти, Мухаррем Інсе, знявся з перегонів після оприлюднення нібито секс-запису, який, за його словами, був дипфейком.
Дональд Трамп
Сила дипфейків, створених штучним інтелектом, була підкреслена, коли в березні були поширені переконливі зображення арешту Дональда Трампа, хоча їхній творець відкрито позначив їх як фейкові. Проте суперник колишнього президента за висунення від Республіканської партії Рон ДеСантіс був розкритикований у червні за використання зроблених штучним інтелектом зображень Трампа, який обіймається з Ентоні Фаучі, колишнім головним медичним радником Білого дому, у передвиборчому відео . Фаучі є фігурою, яка викликає ненависть у багатьох американських консерваторів.
Джо Байден
Президент США є регулярною мішенню дипфейків, зокрема використання голосових інструментів, створених ШІ. На одному відео в лютому створена штучним інтелектом версія голосу Байдена використовується для нападу на трансгендерних жінок, а в іншому в тому ж місяці Байден оголосив, що чоловіків і жінок призвано воювати в Україні.