Інструменти Generative-AI почали те, що один аналітик назвав «хижацькою гонитвою озброєнь» на форумах педофілів, оскільки вони можуть за секунди створити реалістичні зображення дітей, які здійснюють статеві акти, широко відомі як дитяча порнографія.
Згенеровані ШІ зображення дитячого сексу дезорієнтують слідчих ФБР
Революція в галузі штучного інтелекту спричинила вибух тривожно реалістичних зображень, які демонструють сексуальну експлуатацію дітей, посилюючи занепокоєння серед слідчих, які займаються питаннями безпеки дітей, що вони підірвуть зусилля з пошуку жертв і боротьби з насильством у реальному світі.
Тисячі згенерованих штучним інтелектом зображень дитячої статі були знайдені на форумах у темній мережі, шарі Інтернету, видимому лише за допомогою спеціальних браузерів, де деякі учасники діляться детальними посібниками щодо того, як інші педофіли можуть створювати власні твори.
«Дитячі зображення, включно з вмістом відомих жертв, перепрофільовуються для цього справді жахливого результату», — сказала Ребекка Портнофф, директор відділу даних у Thorn, некомерційній групі з безпеки дітей, яка щомісяця спостерігала зростання кількості поширеність зображень з минулої осені.
«Ідентифікація жертви вже є голкою в копиці сіна, коли правоохоронні органи намагаються знайти дитину, яка потрапила в небезпеку», — сказала вона. «Простота використання цих інструментів є значним зрушенням, а також реалістичність. Це просто робить усе ще більшим викликом».
Потік зображень може заплутати центральну систему відстеження, створену для блокування таких матеріалів у мережі, оскільки вона призначена лише для виявлення відомих зображень зловживань, а не для виявлення нових. Це також загрожує перевантажити співробітників правоохоронних органів, які працюють над виявленням постраждалих дітей, і вони будуть змушені витрачати час на визначення того, справжні зображення чи підробка.
Зображення також викликали дискусію про те, чи порушують вони взагалі федеральні закони про захист дітей, оскільки вони часто зображують дітей, яких не існує. Представники міністерства юстиції, які борються з експлуатацією дітей, кажуть, що такі зображення все ще є незаконними, навіть якщо зображена дитина створена штучним інтелектом, але вони не можуть навести жодного випадку, коли підозрюваний був звинувачений у його створенні.
Нові інструменти ШІ, відомі як дифузійні моделі , дозволяють будь-кому створити переконливе зображення, лише ввівши короткий опис того, що він хоче побачити. Такі моделі, як DALL-E, Midjourney і Stable Diffusion, були заповнені мільярдами зображень, взятих з Інтернету, багато з яких показували реальних дітей і були взяті з фотосайтів і особистих блогів. Потім вони імітують ці візуальні моделі, щоб створити власні зображення.
Інструменти були відзначені своєю візуальною винахідливістю та використовувалися для перемог у конкурсах образотворчого мистецтва , ілюстрування дитячих книжок та розкручування фотографій у стилі фейкових новин , а також для створення синтетичної порнографії з неіснуючими персонажами, які виглядають як дорослі.
Але вони також збільшили швидкість і масштаб, з якими педофіли можуть створювати нові відверті зображення, оскільки інструменти вимагають меншої технічної складності, ніж попередні методи, такі як накладення облич дітей на тіла дорослих за допомогою «deepfakes», і можуть швидко генерувати багато зображень з одного .
На форумах педофілів не завжди зрозуміло, як були створені зображення, згенеровані ШІ. Але експерти з безпеки дітей сказали, що багато хто, схоже, покладалися на інструменти з відкритим кодом, такі як Stable Diffusion, які можна запускати необмежено та без контролю.
Stability AI, який керує Stable Diffusion, заявив у своїй заяві, що він забороняє створення зображень сексуального насильства над дітьми, допомагає правоохоронним органам у розслідуванні «незаконного чи зловмисного» використання та видалив відверті матеріали зі своїх навчальних даних, зменшуючи «можливість для погані актори для створення непристойного контенту».
Але будь-хто може завантажити інструмент на свій комп’ютер і запускати його як завгодно, значною мірою уникаючи правил компанії та контролю. Ліцензія інструменту з відкритим вихідним кодом просить користувачів не використовувати його «з метою експлуатації або будь-яким чином завдати шкоди неповнолітнім», але основні функції безпеки, зокрема фільтр відвертих зображень, легко обійти за допомогою рядків коду, які користувач може додати до Програми.
Тестувальники Stable Diffusion місяцями обговорювали ризик того, що штучний інтелект можна використовувати для імітації облич і тіл дітей, згідно з оглядом Washington Post розмов у чаті Discord. Один коментатор повідомив, що бачив, як хтось використовував інструмент, щоб спробувати створити підроблені фотографії в купальнику дитини-актриси, назвавши це «чимось потворним, що чекає, щоб трапилося».
Але компанія захищає свій підхід з відкритим кодом як важливий для творчої свободи користувачів. Виконавчий директор Stability AI, Емад Мостаке, минулого року сказав Verge, що «зрештою, це відповідальність людей за те, чи дотримуються вони етики, моралі та закону в тому, як вони використовують цю технологію», додавши, що «погані речі, які створюють люди… будуть становити дуже, дуже малий відсоток від загального використання».
Основні конкуренти Stable Diffusion, Dall-E та Midjourney, забороняють контент сексуального характеру та не надають відкритий вихідний код, а це означає, що їх використання обмежується корпоративними каналами, а всі зображення записуються та відстежуються.
OpenAI, дослідницька лабораторія Сан-Франциско, що стоїть за Dall-E та ChatGPT, використовує спостерігачів для забезпечення дотримання своїх правил , зокрема заборони матеріалів із сексуальним насильством над дітьми, і видалила відвертий вміст із навчальних даних свого генератора зображень, щоб мінімізувати його «вплив на ці концепції", - сказав речник.
«Приватні компанії не хочуть брати участь у створенні найгіршого типу контенту в Інтернеті», — сказала Кейт Клонік, ад’юнкт-професор права в Університеті Сент-Джона. «Але найбільше мене лякає відкритий випуск цих інструментів, коли у вас можуть бути окремі особи або організації-одноденки, які використовують їх і можуть просто зникнути. Немає простого скоординованого способу знищити децентралізованих зловмисників таким чином».
На педофільних форумах темної мережі користувачі відкрито обговорювали стратегії створення відвертих фотографій і ухилення від фільтрів проти порнографії, включно з використанням неанглійських мов, які, на їхню думку, менш вразливі для придушення або виявлення, кажуть аналітики з безпеки дітей.
На одному форумі з 3000 членами приблизно 80 відсотків респондентів нещодавнього внутрішнього опитування сказали, що вони використовували або мали намір використовувати інструменти штучного інтелекту для створення зображень сексуального насильства над дітьми, сказав Аві Джагер, керівник відділу безпеки дітей та експлуатації людини в ActiveFence, який працює з соціальними мережами та потоковими сайтами, щоб виявити шкідливий вміст.
Учасники форуму обговорювали способи створення селфі, згенерованих штучним інтелектом, і створення підробленого персонажа шкільного віку в надії завоювати довіру інших дітей, сказав Джагер. Портнофф з Торна сказала, що її група також бачила випадки, коли реальні фотографії дітей, які постраждали від насильства, використовувалися для навчання інструменту штучного інтелекту для створення нових зображень, що показують цих дітей у сексуальних позах.
Йота Сурас, головний юридичний директор Національного центру зниклих безвісти та експлуатованих дітей, некомерційної організації, яка керує базою даних, яку компанії використовують для позначення та блокування матеріалів дитячого сексу, сказала, що її група зафіксувала різке зростання повідомлень про зображення, створені ШІ. протягом останніх кількох місяців, а також повідомлення про людей, які завантажували зображення сексуального насильства над дітьми в інструменти штучного інтелекту в надії отримати більше.
Хоча це невелика частка з понад 32 мільйонів повідомлень, які група отримала минулого року, все більша поширеність і реалістичність зображень загрожує спалити час і енергію слідчих, які працюють над виявленням дітей-жертв і не мають можливості переслідувати кожного звіт, сказала вона. ФБР повідомило в попередженні цього місяця, що спостерігало збільшення повідомлень про дітей, чиї фотографії були змінені на «зображення сексуальної тематики, які виглядають правдивими».
«Що в пріоритеті для правоохоронних органів?» – сказав Сурас. «Що вони досліджують? Куди саме вони йдуть у правовій системі?»
Деякі юридичні аналітики стверджують, що матеріал потрапляє в юридичну сіру зону, оскільки зображення, повністю згенеровані штучним інтелектом, не зображують реальну дитину, яка постраждала. У 2002 році Верховний суд скасував два положення заборони Конгресу 1996 року «віртуальної дитячої порнографії», постановивши, що його формулювання було достатньо широким, щоб потенційно криміналізувати деякі літературні зображення підліткової сексуальності.
Тоді захисники заборони стверджували, що це рішення ускладнить роботу прокурорів, які розглядають справи про сексуальне насильство над дітьми, оскільки відповідачі можуть стверджувати, що на зображеннях не зображені справжні діти.
У своїй незгоді голова Верховного Суду Вільям Х. Ренквіст написав: «Конгрес непереборно зацікавлений у забезпеченні спроможності забезпечити дотримання заборони справжньої дитячої порнографії, і ми повинні покладатися на його висновки про те, що швидкий розвиток технологій незабаром зробить це практично неможливим. так."
Деніел Лайонс, професор права Бостонського коледжу, сказав, що це рішення, ймовірно, заслуговує на перегляд, враховуючи, наскільки технологія просунулася за останні два десятиліття.
«У той час віртуальний [матеріал сексуального насильства над дітьми] було технічно складно створювати таким чином, щоб замінити реальний», — сказав він. «Розрив між реальністю та матеріалами, створеними штучним інтелектом, скоротився, і це перетворилося з уявного експерименту на потенційно серйозну проблему реального життя».
Двоє чиновників відділу з експлуатації дітей і непристойності Міністерства юстиції заявили, що зображення є незаконними відповідно до закону, який забороняє будь-які створені комп’ютером зображення сексуального характеру, які зображують когось, кого «практично не можна відрізнити» від справжньої дитини.
Вони також посилаються на інший федеральний закон , прийнятий у 2003 році, який забороняє будь-яке комп’ютерне зображення дитини, яка демонструє сексуальну поведінку, якщо воно є непристойним і не має серйозної художньої цінності. Закон зазначає, що «це не є обов’язковим елементом будь-якого правопорушення … те, що зображений неповнолітній дійсно існує».
«Зображення, розроблене таким чином, щоб показати зведений знімок мільйона неповнолітніх, який виглядає як справжня дитина, яка займається сексом із дорослим чи іншою дитиною — ми без вагань використаємо наявні в нашому розпорядженні інструменти, щоб переслідувати ці зображення», сказав Стів Грокі, керівник секції.
Чиновники сказали, що сотні федеральних, державних і місцевих правоохоронних органів, які беруть участь у боротьбі з експлуатацією дітей, ймовірно, обговорять проблему, що зростає, на національному тренінгу цього місяця.
Окремо деякі групи працюють над технічними способами протистояти цій проблемі, сказала Маргарет Мітчелл, дослідник штучного інтелекту, яка раніше очолювала команду етики штучного інтелекту Google.
Одне з рішень, яке вимагатиме схвалення уряду, полягатиме в тому, щоб навчити модель штучного інтелекту створювати приклади фальшивих зображень експлуатації дітей, щоб системи онлайн-виявлення знали, що потрібно видалити, сказала вона. Але ця пропозиція завдасть власної шкоди, додала вона, оскільки цей матеріал може мати «великі психологічні витрати: це те, що ви не можете не помітити».
Інші дослідники штучного інтелекту зараз працюють над системами ідентифікації, які могли б вставляти код у зображення, що посилаються на їхніх творців, у надії запобігти зловживанням. Минулого місяця дослідники з Університету Меріленда опублікували нову техніку «невидимих» водяних знаків, яка може допомогти ідентифікувати автора зображення та яку важко видалити.
Такі ідеї, ймовірно, вимагатимуть участі всієї галузі, щоб вони спрацювали, і навіть вони не будуть виловлювати кожне порушення, сказав Мітчелл. «Ми будуємо літак під час польоту», — сказала вона.
Навіть якщо на цих зображеннях не зображені справжні діти, Сурас із Національного центру зниклих безвісти та експлуатованих дітей сказав, що вони завдають «жахливої суспільної шкоди». Створені швидко та у величезних кількостях, вони можуть бути використані для нормалізації сексуалізації дітей або оформлення огидної поведінки як звичайного, так само, як хижаки використовували реальні зображення, щоб спонукати дітей до насильства.
«Від однієї дитини вуха не візьмеш. Система переглянула 10 мільйонів дитячих вух і тепер знає, як їх створити», — сказав Сурас. «Той факт, що хтось може зробити 100 зображень за день і використати їх, щоб спонукати дитину до такої поведінки, є неймовірно шкідливим».