Педофіли використовують ШІ для створення контенту про сексуальне насильство над дітьми

Дмитро Сизов
Педофіли використовують ШІ для створення контенту про сексуальне насильство над дітьми

Педофіли використовують безплатно доступне програмне забезпечення штучного інтелекту для створення матеріалів про сексуальне насильство над дітьми (CSAM), за даними служби безпеки, при цьому правопорушники обговорюють, як маніпулювати фотографіями дітей знаменитостей або відомих жертв для створення нового контенту.

У Internet Watch Foundation повідомили, що онлайн-форуми, які використовували сексуальні злочинці, обговорювали використання моделей штучного інтелекту з відкритим кодом для створення нових незаконних матеріалів. Попередження прозвучало після того, як у вівторок голова урядової робочої групи зі штучного інтелекту Ян Хогарт висловив занепокоєння щодо CSAM, коли він сказав колегам, що моделі з відкритим кодом використовуються для створення «одних із найогидніших речей, які існують».

Технологію штучного інтелекту з відкритим кодом можуть завантажувати та налаштовувати користувачі, на відміну від інструментів закритої моделі, таких як Dall-E від OpenAI або Imagen від Google, базові моделі яких, які лежать в основі створення зображень, не можуть отримати доступ або змінити представники громадськості.

Ден Секстон, головний технічний директор Internet Watch Foundation, розповів Guardian, що форуми педофілів у дарк-мережі обговорюють такі питання, як моделі з відкритим кодом використовувати та як отримати найбільш реалістичні зображення.

«Є технічне співтовариство в просторі правопорушників, зокрема форуми темної мережі, де вони обговорюють цю технологію. Вони діляться зображеннями, моделями [AI]. Вони діляться посібниками та порадами».

Він додав: «Ми вважаємо, що контент, який ми бачили, насправді створювався за допомогою програмного забезпечення з відкритим кодом, яке було завантажено та запущено локально на комп’ютерах людей, а потім модифіковано. І це набагато важче розв'язувати проблему.

Їх навчили, що таке матеріали сексуального насильства над дітьми, і навчили, як їх створювати

Обговорення включають використання зображень дітей знаменитостей, загальнодоступних зображень дітей або зображень відомих жертв жорстокого поводження з дітьми для створення нового контенту про насильство. «Усі ці ідеї викликають занепокоєння, і ми бачили дискусії щодо них», — сказав Секстон.

Відповідно до дискусій на форумах, які спостерігав IWF, правопорушники починають із базової моделі генерації вихідного зображення, яка навчається на мільярдах і мільярдах зображень із тегами, що дозволяє їм виконувати основи генерації зображень. Потім це точно налаштовується за допомогою зображень CSAM для створення меншої моделі з використанням низькорангової адаптації, що зменшує кількість обчислень, необхідних для створення зображень.

На запитання, чи може IWF, який шукає CSAM і координує його видалення, а також працює гаряча лінія для повідомлень, бути перевантажений матеріалами, створеними штучним інтелектом, Секстон відповів: «Сексуальне насильство над дітьми в Інтернеті вже, як ми вважаємо, епідемією суспільної охорони здоров’я. . Тож це не покращить проблему. Це потенційно лише погіршить ситуацію».

Співробітник на роботі в Internet Watch Foundation
IWF шукає матеріали сексуального насильства над дітьми та координує їх видалення, а також працює гаряча лінія для повідомлень. Фото: Грем Робертсон/The Guardian

Експерти з правоохоронних органів та безпеки дітей побоюються, що фотореалістичні зображення CSAM, які заборонені у Великій Британії, ускладнять ідентифікацію реальних жертв і допомогу їм. Вони також стурбовані тим, що величезний потенційний обсяг таких зображень може зробити їх більш масовими.