Програми ШІ, що роздягають жінок на фото, набули популярності

Дмитро Сизов
Програми ШІ, що роздягають жінок на фото, набули популярності

Згідно з даними дослідників, додатки та веб-сайти, які використовують штучний інтелект для роздягання жінок на фотографіях, набувають популярності.

Лише у вересні 24 мільйони людей відвідали веб-сайти, присвячені роздяганню, за даними компанії Graphika , що займається аналізом соціальних мереж .

За даними Graphika, багато з цих сервісів роздягання або «оголення» використовують популярні соціальні мережі для маркетингу. Наприклад, з початку цього року кількість посилань, які рекламують програми для роздягання, зросла більш ніж на 2400% у соціальних мережах, зокрема на X і Reddit , кажуть дослідники. Сервіси використовують штучний інтелект, щоб відтворити зображення так, щоб людина була оголеною. Багато послуг працюють лише з жінками.

Ці додатки є частиною тривожної тенденції несанкціонованої порнографії, яка розробляється та розповсюджується через прогрес у штучному інтелекті — типу сфабрикованих медіа, відомих як глибока фейкова порнографія. Його поширення стикається з серйозними юридичними та етичними перешкодами, оскільки зображення часто беруть із соціальних мереж і поширюють без згоди, контролю чи відома суб’єкта.

Одне зображення, опубліковане на X, рекламуючи програму для роздягання, використовувало мову, яка припускала, що клієнти можуть створювати зображення оголеного тіла, а потім надсилати їх людині, чиє зображення було роздягнено цифровим способом, підбурюючи домагання. Тим часом один із додатків заплатив за спонсорований вміст на YouTube від Google і з’являється першим під час пошуку зі словом «nudify».

Представник Google сказав, що компанія не дозволяє рекламу, «яка містить відвертий сексуальний вміст. Ми переглянули спірні оголошення та видаляємо ті, які порушують нашу політику». Ні X, ні Reddit не відповіли на запити про коментарі.

Порнографія громадських діячів без згоди вже давно є лихом Інтернету, але експерти з конфіденційності все більше стурбовані тим, що прогрес у технології штучного інтелекту зробив програмне забезпечення deepfake легшим і ефективнішим.

«Ми бачимо, як усе частіше це роблять звичайні люди зі звичайними цілями», — сказала Єва Гальперін , директор із кібербезпеки Electronic Frontier Foundation . «Ви бачите це серед старшокласників і людей, які навчаються в коледжах».

Багато жертв ніколи не дізнаються про зображення, але навіть тим, хто дізнається, може бути важко змусити правоохоронні органи провести розслідування або знайти кошти для судового позову, сказала Гальперін.

Наразі немає федерального закону, який забороняє створення глибокої фейкової порнографії, хоча уряд США забороняє створення таких зображень неповнолітніх. У листопаді дитячий психіатр із Північної Кароліни був засуджений до 40 років ув’язнення за використання додатків для роздягання на фотографіях своїх пацієнтів. Це перше судове переслідування такого роду відповідно до закону, який забороняє генерацію глибоких фейків матеріалів про сексуальне насильство над дітьми.

TikTok заблокував ключове слово «роздягатися», популярний пошуковий термін, пов’язаний із сервісами, попереджаючи всіх, хто шукає це слово, що воно «може бути пов’язане з поведінкою або контентом, який порушує наші вказівки», згідно з додатком. Представник TikTok відмовився уточнювати подробиці. У відповідь на запитання Meta Platforms Inc. також почала блокувати ключові слова, пов’язані з пошуком додатків для роздягання. Прес-секретар відмовився від коментарів.