Вона каже, що оголені фотографії не є частиною контенту, яким вона ділиться. Але хтось в Інтернеті зробив кілька, використовуючи образ QTCinderella в комп’ютерному порно. Цього місяця відомий стример Брендон Юінг зізнався, що переглядав ці зображення на вебсайті, який містив тисячі інших дипфейків, привертаючи увагу до зростальної загрози в епоху ШІ: технологія створює новий інструмент для жінок.
Порноконтент починає виробляти ШІ, жінки стурбовані примусовими діпфейками
QTCinderella здобула собі ім’я, граючи, випікаючи та обговорюючи своє життя на платформі потокового відео Twitch, залучаючи сотні тисяч глядачів одночасно. Вона вперше започаткувала «The Streamer Awards», щоб відзначити інших високоефективних творців контенту, а нещодавно з’явилася в бажаному гостьовому місці в серії чемпіонів з кіберспорту.
«Кожна людина, яка каже, що це не велика проблема, ви не уявляєте, як це відчувати, коли фотографію, на якій ви робите те, чого ви ніколи не робили, надсилають вашій родині», — сказала QTCinderella у прямому ефірі відео.
Стрімери зазвичай не розкривають своїх справжніх імен і користуються своїми ручками. QTCinderella не відповіла на окремий запит про коментар. У своєму прямому ефірі вона зазначила, що вирішення інциденту було «виснажливим» і не повинно бути частиною її роботи.
Донедавна створення реалістичного штучного інтелекту порно потребувало комп’ютерних знань. Тепер, частково завдяки новим, простим у використанні інструментам штучного інтелекту, кожен, хто має доступ до зображень обличчя жертви, може створювати реалістичний відвертий вміст за допомогою створеного штучним інтелектом тіла. Випадки домагань і здирництва, ймовірно, зростуть, кажуть експерти зі зловживань, оскільки погані актори використовують моделі штучного інтелекту, щоб принижувати об’єкти — від знаменитостей до колишніх дівчат — навіть дітей.
Вони кажуть, що жінки мають мало способів захистити себе, а жертви мають мало засобів захисту.
Згідно з аналізом компанії DeepTrace Technologies, станом на 2019 рік, 96 відсотків дипфейків в Інтернеті були порнографічними, і практично всі порнографічні дипфейки зображували жінок. Відтоді кількість дипфейків зросла, а реакція правоохоронних органів і освітян відстає, – сказала професор права та експерт із питань онлайн-зловживань Даніель Сітрон. Лише три штати США мають закони, які стосуються глибокої фейкової порнографії.
«Це поширена проблема, — сказав Сітрон. «Тим не менш, ми випустили нові та різні інструменти [ШІ] без будь-якого визнання соціальних практик і способів їх використання ».
У 2022 році дослідницька лабораторія OpenAI викликала хвилю, відкривши для громадськості свою флагманську модель створення зображень Dall-E, що викликало захоплення та занепокоєння щодо дезінформації, авторських прав і упередженості. Конкуренти Midjourney і Stable Diffusion йшли впритул, причому останній зробив свій код доступним для завантаження та зміни.
Зловмисникам не потрібне потужне машинне навчання, щоб створювати глибокі фейки: програми «Face swap», доступні в магазинах додатків Apple і Google, уже спрощують їх створення. Але остання хвиля штучного інтелекту робить дипфейки доступнішими, а моделі можуть бути ворожими до жінок новими способами.
Оскільки ці моделі дізнаються, що робити, поглинаючи мільярди зображень з Інтернету, вони можуть відображати суспільні упередження, сексуалізуючи образи жінок за замовчуванням, сказав Хані Фарід, професор Каліфорнійського університету в Берклі, який спеціалізується на аналізі цифрових зображень. Оскільки зображення, створені штучним інтелектом, покращуються, користувачі Twitter запитують, чи не становлять ці зображення фінансову загрозу для контенту для дорослих, створеного за згодою, наприклад сервісу OnlyFans, де виконавці охоче демонструють свої тіла або здійснюють сексуальні акти.
Тим часом компанії зі штучним інтелектом продовжують дотримуватись принципу Силіконової долини «рухайся швидко і ламай речі», розв'язуючи проблеми, щойно вони виникають.
«Люди, які розробляють ці технології, не думають про це з точки зору жінки, яка стала жертвою примусового порнографії або зазнала переслідувань в Інтернеті», — сказав Фарід. «У вас є купа білих чуваків, які сидять і говорять: «Гей, подивися».»
Люди, які переглядають ваші відверті зображення без вашої згоди — незалежно від того, чи є ці зображення справжніми чи підробленими — є формою сексуального насильства, — сказала Крістен Залескі, директор судово-психологічної клініки з прав людини Кека в Університеті Південної Каліфорнії. За її словами, жертви часто стикаються з осудом і плутаниною з боку своїх роботодавців і громад. Наприклад, Залескі сказала, що вона вже працювала з вчителькою з маленького містечка, яка втратила роботу після того, як батьки дізналися про порно штучного інтелекту, створене за подобою вчительки без її згоди.
«Батьки в школі не розуміли, як це могло бути можливим», — сказав Залескі. «Вони наполягали, що не хочуть, щоб їхні діти більше навчалися в неї».
Зростаюча пропозиція дипфейків зумовлена попитом: після вибачень Юінга потік трафіку на веб-сайт, де розміщено дипфейки, спричинив неодноразові збої на сайті, сказала незалежний дослідник Женев’єв О. За її словами, кількість нових відео на сайті майже подвоїлася з 2021 по 2022 роки, оскільки інструменти для створення зображень штучного інтелекту поширювалися. Творці Deepfake і розробники додатків однаково заробляють гроші на вмісті, стягуючи плату за підписки або збираючи пожертви, Oh found, і Reddit неодноразово розміщував теми, присвячені пошуку нових інструментів і сховищ deepfake.
Відповідаючи на запитання, чому вони не завжди оперативно видаляли ці потоки, представник Reddit сказала, що платформа працює над покращенням своєї системи виявлення. «Reddit був одним із перших сайтів, які встановили політику заборони такого контенту, і ми продовжуємо розвивати нашу політику, щоб забезпечити безпеку платформи», — сказала вона.
Моделі машинного навчання також можуть видавати зображення, що зображують жорстоке поводження з дітьми або зґвалтування, і, оскільки під час створення ніхто не постраждав, такий контент не порушуватиме жодних законів, сказав Сітрон. Але доступність цих зображень може посилити виктимізацію в реальному житті, сказав Залескі.
Деякі генеративні моделі зображень, зокрема Dall-E, мають межі, які ускладнюють створення відвертих зображень. OpenAI мінімізує зображення оголеного тіла в навчальних даних Dall-E, блокує людей від введення певних запитів і сканує вихідні дані, перш ніж показати їх користувачеві, розповів The Washington Post провідний дослідник Dall-E Адітя Рамеш.
Інша модель, Midjourney, використовує комбінацію заблокованих слів і людської модерації, сказав засновник Девід Хольц. За його словами, найближчими тижнями компанія планує розгорнути вдосконалену фільтрацію, яка краще враховуватиме контекст слів.
Stability AI, виробник моделі Stable Diffusion, припинив включати порно в навчальні дані для своїх останніх випусків, значно зменшивши упередженість і сексуальний контент, сказав засновник і генеральний директор Емад Мостаке.
Але користувачі швидко знайшли обхідні шляхи, завантаживши модифіковані версії загальнодоступного коду для Stable Diffusion або знайшовши сайти, які пропонують подібні можливості.
Жодна огорожа не буде на 100 відсотків ефективною для контролю продуктивності моделі, сказав Фарід з Берклі. Моделі штучного інтелекту зображують жінок із сексуальними позами та виразами обличчя через поширену упередженість в Інтернеті, джерелі даних про їхні тренування, незалежно від того, чи були відфільтровані оголені та інші відверті зображення.
Наприклад, додаток Lensa, який у листопаді посів перше місце в чартах додатків, створює автопортрети, створені штучним інтелектом. Багато жінок сказали, що додаток сексуалізував їхні зображення, надаючи їм більші груди або зображуючи їх без сорочки.
Лорен Гутьєррес, 29-річна дівчина з Лос-Анджелеса, яка спробувала Lensa в грудні, сказала, що надала їй свої загальнодоступні фотографії, як-от зображення профілю в LinkedIn. У свою чергу Lensa відрендерила кілька оголених зображень.
Гутьєррес сказала, що спочатку була здивована. Тоді вона відчула нервозність.
"Це було майже моторошно", - сказала вона. «Якби хлопець зробив фотографії жінки, які він щойно знайшов в Інтернеті, і помістив їх у цей додаток, щоб уявити, як вона виглядає оголеною. »
Для більшості людей видалення своєї присутності в Інтернеті, щоб уникнути ризику зловживання ШІ, є нереальним. Натомість експерти закликають уникати використання сексуального контенту без згоди та ознайомитися з тим, як він впливає на психічне здоров’я, кар’єру та стосунки жертв.
Вони також рекомендують поговорити з дітьми про «цифрову згоду». Люди мають право контролювати, хто бачить зображення їхніх тіл — справжні чи ні.