ФБР: американець за допомогою ШІ створив 13 000 фотографій сексуального насильства над дітьми

Дмитро Сизов
ФБР: американець за допомогою ШІ створив 13 000 фотографій сексуального насильства над дітьми

ФБР висунуло громадянину США звинувачення у створенні понад 10 000 відверто сексуальних і образливих зображень дітей, які він нібито створив за допомогою популярного інструменту штучного інтелекту. Влада також звинуватила чоловіка, 42-річного Стівена Андереґга, у надсиланні порнографічних зображень, створених штучним інтелектом, 15-річному хлопчику через Instagram.

Андерегг створив близько 13 000 «гіперреалістичних зображень оголених і напіводягнених дітей препубертатного віку», як заявили прокурори в обвинувальному акті, оприлюдненому в понеділок, часто зображення, на яких діти торкаються своїх статевих органів або піддаються сексуальному насильству з боку дорослих чоловіків. Докази з ноутбука чоловіка з Вісконсіна нібито показали, що він використовував популярну модель Stable Diffusion AI, яка перетворює текстові описи на зображення.

Звинувачення Андереґгу були висунуті після того, як минулого року Національний центр у справах зниклих і експлуатованих дітей (NCMEC) отримав два звіти, у яких було позначено його обліковий запис Instagram, що спонукало правоохоронних органів стежити за його діяльністю в соціальній мережі, отримувати інформацію з Instagram і, зрештою, отримати ордер на обшук. . Влада вилучила його ноутбук і виявила тисячі генеративних зображень штучного інтелекту, згідно з обвинуваченням проти нього, а також історію використання «надзвичайно конкретних і явних підказок» для створення образливого матеріалу.

Андереґгу пред’явлено чотири пункти звинувачення у створенні, розповсюдженні та зберіганні матеріалів сексуального насильства над дітьми та надсиланні відвертих матеріалів дитині віком до 16 років. Якщо його визнають винним, йому загрожує максимальне покарання у вигляді приблизно 70 років ув’язнення, а 404 Media повідомляє , що ця справа є однією з ФБР вперше висунуло звинувачення у створенні матеріалів штучного інтелекту про сексуальне насильство над дітьми. Минулого місяця чоловіка у Флориді заарештували за те, що він нібито сфотографував дитину свого сусіда та використав штучний інтелект для створення зображень відвертого сексуального характеру на фото.

Прихильники безпеки дітей і дослідники штучного інтелекту давно попереджають, що зловмисне використання генеративного штучного інтелекту може призвести до сплеску матеріалів про сексуальне насильство над дітьми. У 2023 році кількість повідомлень про жорстоке поводження з дітьми в Інтернеті до NCMEC зросла приблизно на 12% порівняно з попереднім роком, частково через різке збільшення матеріалів, створених штучним інтелектом, що загрожує переповнити рядок підказок організації щодо позначення потенційних матеріалів сексуального насильства над дітьми (CSAM).

«NCMEC глибоко стурбований цією швидко висхідною тенденцією, оскільки зловмисники можуть використовувати штучний інтелект для створення глибоко підроблених зображень або відео відверто сексуального характеру на основі будь-якої фотографії реальної дитини або створювати CSAM із зображенням згенерованих комп’ютером дітей, які беруть участь у графічних сексуальних актах», – йдеться у звіті NCMEC.

Бум генеративного штучного інтелекту призвів до широкомасштабного створення неконсенсусної глибокої фейкової порнографії, яка спрямована на будь-кого, від знаменитостей зі списку А до пересічних громадян. Згенеровані штучним інтелектом зображення та дипфейки неповнолітніх також поширювалися серед шкіл, в одному випадку це призвело до арешту двох хлопчиків середньої школи у Флориді, які створили оголені зображення своїх однокласників. Кілька штатів прийняли закони, які забороняють створення відвертих зображень без згоди, а Міністерство юстиції заявило, що створення сексуальних зображень дітей штучним інтелектом є незаконним.

«Міністерство юстиції агресивно переслідуватиме тих, хто виробляє та розповсюджує матеріали сексуального насильства над дітьми — або CSAM — незалежно від того, як ці матеріали були створені», — заявила заступник генерального прокурора Ліза Монако у заяві після арешту. «Простіше кажучи, CSAM, створений штучним інтелектом, все ще залишається CSAM, і ми притягнемо до відповідальності тих, хто використовує штучний інтелект для створення непристойних, образливих і все більш фотореалістичних зображень дітей».

Stable Diffusion, яка є моделлю штучного інтелекту з відкритим кодом, раніше використовувалася для створення образів сексуального насильства та модифікувалася користувачами для створення відвертого матеріалу. Минулорічна доповідь Стенфордської Інтернет-обсерваторії також виявила, що в її навчальних даних були матеріали про сексуальне насильство над дітьми. Stability AI, яка створила Stable Diffusion, заявила, що забороняє використовувати свою модель для створення незаконного контенту.