Зображення сексуального характеру на сайті Grok викликали критику, Франція позначила контент як незаконний

Дмитро Сизов
Зображення сексуального характеру на сайті Grok викликали критику, Франція позначила контент як незаконний

Чат-бот Ілона Маска зі штучним інтелектом Grok останніми днями створював сексуалізовані зображення людей, зокрема неповнолітніх, на платформі соціальних мереж X у відповідь на запити користувачів, що викликало докір з боку чиновників, таких як уряд Франції.

Грок створював та публікував зображення неповнолітніх у мінімалістичному одязі, що очевидно порушує власну політику прийнятного використання, яка забороняє сексуалізацію дітей. Деякі образливі зображення пізніше були видалені.

У п'ятницю французький уряд звинуватив Grok у створенні «явно незаконного» контенту сексуального характеру на X без згоди людей, позначивши це питання як потенційне порушення Закону Європейського Союзу про цифрові послуги. Згідно з заявою країни, цей регламент вимагає від великих платформ зменшувати ризик поширення незаконного контенту.

Представники xAI, компанії, яка розробляє Grok та керує X, не відповіли на запити про коментарі. Чат-бот Grok створив пост на X у відповідь на запитання користувачів у п'ятницю про те, що він виявив «прогалини в заходах безпеки», які «терміново» виправляються. Він повторив слова співробітника xAI Парси Таджика, який раніше написав , що «команда розглядає можливість подальшого посилення» своїх захисних заходів.

Користувачі X можуть взаємодіяти з Grok безпосередньо на платформі, позначаючи його обліковий запис у публікаціях та пропонуючи чат-боту відповісти. Grok генерує текст і зображення, які відображаються як публікації в соціальній мережі.

Зростання популярності інструментів штучного інтелекту, здатних створювати реалістичні зображення роздягнених неповнолітніх, підкреслює проблеми модерації контенту та систем безпеки, вбудованих у великі мовні моделі, що генерують зображення. Інструменти, які нібито мають захисні бар'єри, можна маніпулювати, що призводить до поширення матеріалів, які викликали занепокоєння захисників безпеки дітей . Фонд Internet Watch, некомерційна організація, яка виявляє матеріали про сексуальне насильство над дітьми в Інтернеті, повідомила про 400% збільшення таких зображень, створених штучним інтелектом, за перші шість місяців 2025 року.

«Продукти штучного інтелекту повинні пройти ретельне тестування перед виходом на ринок, щоб переконатися, що вони не здатні генерувати цей матеріал», – заявила у п’ятницю головний виконавчий директор фонду Керрі Сміт.

XAI позиціонує Grok як більш поблажливий, ніж інші основні моделі штучного інтелекту, і минулого літа представив функцію під назвою «Гострий режим», яка дозволяє часткову оголеність дорослих та контент сексуального підтексту. Сервіс забороняє порнографію, що містить зображення реальних людей, та контент сексуального характеру за участю неповнолітніх, створення або розповсюдження якого є незаконним.

Тим не менш, користувачі спонукали Grok цифровим способом видалити одяг з фотографій — переважно жінок — щоб на фотографіях виглядала лише спідня білизна або бікіні. Це спонукало Міністерство інформаційних технологій Індії вимагати всебічного перегляду функцій безпеки Grok, згідно з копією скарги, опублікованою в п'ятницю членом парламенту Індії Пріянкою Чатурведі.

У своїй заяві французький уряд заявив, що повідомив про створений Гроком контент сексуального характеру прокурору країни з вимогою негайно його видалити.

Оскільки генерація зображень за допомогою штучного інтелекту стала більш популярною, провідні компанії, що розробляють ці інструменти, опублікували політику щодо зображень неповнолітніх. OpenAI забороняє будь-які матеріали , що сексуалізують дітей віком до 18 років, і блокує будь-яких користувачів, які намагаються створювати або завантажувати такі матеріали. Google має аналогічну політику , яка забороняє «будь-які модифіковані зображення неповнолітнього, якого можна ідентифікувати, який бере участь у сексуально відвертих діях». Black Forest Labs, стартап у сфері штучного інтелекту, який раніше працював з X, є однією з багатьох компаній, що займаються генеративним штучним інтелектом, які стверджують, що вони фільтрують зображення жорстокого поводження з дітьми та їх експлуатації з наборів даних, що використовуються для навчання моделей штучного інтелекту.

У 2023 році дослідники виявили, що величезний публічний набір даних , який використовувався для створення популярних генераторів зображень на основі штучного інтелекту, містив щонайменше 1008 випадків матеріалів із сексуальним насильством над дітьми.

Багато компаній зіткнулися з критикою за нездатність захистити неповнолітніх від контенту сексуального характеру. Meta Platforms Inc. влітку заявила, що оновлює свою політику після того, як у звіті Reuters було виявлено, що внутрішні правила компанії дозволяють її чат-боту вести романтичні та чуттєві розмови з дітьми.