Коаліція некомерційних організацій США вимагає федеральної заборони Grok через сексуальний контент без згоди

Коаліція некомерційних організацій закликає уряд США негайно призупинити розгортання Grok, чат-бота, розробленого штучним інтелектом Ілона Маска, у федеральних установах, включаючи Міністерство оборони.
Відкритий лист, ексклюзивно опублікований TechCrunch, є наслідком низки тривожних випадків поведінки користувачів великої мовної моделі протягом минулого року, включаючи нещодавню тенденцію користувачів X, які просять Грока перетворити фотографії справжніх жінок, а в деяких випадках і дітей, на сексуалізовані зображення без їхньої згоди. За деякими повідомленнями, Грок щогодини генерував тисячі ненавмисних відвертих зображень, які потім поширювалися у великих масштабах на X, платформі соціальних мереж Маска, що належить xAI.
«Глибоке занепокоєння викликає те, що федеральний уряд продовжує впроваджувати продукт штучного інтелекту з системними збоями, що призводять до створення сексуальних зображень без згоди та матеріалів про сексуальне насильство над дітьми», – йдеться в листі, підписаному такими правозахисними групами, як Public Citizen, Center for AI and Digital Policy та Consumer Federation of America. «Враховуючи виконавчі розпорядження адміністрації, вказівки та нещодавно прийнятий Закон про його виведення з експлуатації, підтриманий Білим домом , викликає занепокоєння те, що [Адміністративно-бюджетне управління] ще не доручило федеральним агентствам вивести Grok з експлуатації».
У вересні минулого року xAI досягла угоди з Адміністрацією загальних служб (GSA), державним закупівельним підрозділом, про продаж Grok федеральним агентствам, що підпорядковуються виконавчій гілці влади. Двома місяцями раніше xAI — разом з Anthropic, Google та OpenAI — уклала контракт з Міністерством оборони на суму до 200 мільйонів доларів .
На тлі скандалів навколо X у середині січня міністр оборони Піт Хегсет заявив, що Грок приєднається до Gemini компанії Google, щоб працювати всередині мережі Пентагону , обробляючи як секретні, так і несекретні документи, що, на думку експертів, становить загрозу національній безпеці.
Автори листа стверджують, що Grok довів свою несумісність з вимогами адміністрації щодо систем штучного інтелекту. Згідно з рекомендаціями OMB , системи, які становлять серйозні та передбачувані ризики, які неможливо належним чином пом'якшити, мають бути припинені.
«Наше головне занепокоєння полягає в тому, що Grok досить послідовно демонструє себе як небезпечна модель великої мови», – сказав TechCrunch Джей Бі Бранч, прихильник підзвітності громадських громадян Big Tech та один із авторів листа. «Але Grok також має довгу історію різноманітних істерик, включаючи антисемітські тиради, сексистські тиради, сексуалізовані зображення жінок і дітей».
Кілька урядів продемонстрували небажання взаємодіяти з Grok після його дій у січні, які стали продовженням серії інцидентів, включаючи публікацію антисемітських постів на X та назву себе «МехаГітлер». Індонезія, Малайзія та Філіппіни заблокували доступ до Grok ( згодом вони зняли ці заборони ), а Європейський Союз, Велика Британія, Південна Корея та Індія активно розслідують дії xAI та X щодо конфіденційності даних та розповсюдження незаконного контенту.
Лист також з'явився через тиждень після того, як Common Sense Media, некомерційна організація, яка аналізує медіа та технології для сімей, опублікувала викривальну оцінку ризиків , яка виявила, що Grok є одним із найнебезпечніших для дітей та підлітків. Можна стверджувати, що, виходячи з висновків звіту, включаючи схильність Grok пропонувати небезпечні поради, поширювати інформацію про наркотики, створювати насильницькі та сексуальні образи, поширювати теорії змови та генерувати упереджені висновки, Grok також не такий безпечний для дорослих.
«Якщо ви знаєте, що велика мовна модель є або була визнана небезпечною експертами з безпеки штучного інтелекту, то чому ви хочете, щоб вона обробляла найчутливіші дані, які ми маємо?» — сказав Бранч. «З погляду національної безпеки це абсолютно не має сенсу».
Ендрю Крістіансон, колишній підрядник Агентства національної безпеки та нинішній засновник Gobbi AI , платформи штучного інтелекту без коду для засекречених середовищ, каже, що використання LLM із закритим кодом загалом є проблемою, особливо для Пентагону.
«Закриті ваги означають, що ви не можете зазирнути всередину моделі, ви не можете перевірити, як вона приймає рішення», – сказав він. «Закритий код означає, що ви не можете перевірити програмне забезпечення або контролювати, де воно працює. Пентагон закриває обидва варіанти, що є найгіршою можливою комбінацією для національної безпеки».
«Ці агенти штучного інтелекту — це не просто чат-боти», — додав Крістіансон. «Вони можуть виконувати дії, отримувати доступ до систем, переміщувати інформацію. Ви повинні мати змогу точно бачити, що вони роблять і як приймають рішення. Відкритий код дає вам це. Власний хмарний штучний інтелект — ні».
Ризики використання пошкоджених або небезпечних систем штучного інтелекту виходять за рамки випадків використання в національній безпеці. Бранч зазначив, що LLM, який, як було показано, має упереджені та дискримінаційні результати, може призвести до непропорційно негативних наслідків і для людей, особливо якщо його використовувати в департаментах, пов'язаних з житловим господарством, працею чи юстицією.
Хоча Адміністративно-бюджетне управління (OMB) ще не опублікувало свій зведений перелік випадків використання федерального штучного інтелекту за 2025 рік, TechCrunch переглянув варіанти використання кількох агентств, більшість з яких або не використовують Grok, або не розкривають інформацію про використання Grok. Окрім Міністерства оборони, Міністерство охорони здоров'я та соціальних служб США також, схоже, активно використовує Grok, головним чином для планування та управління публікаціями в соціальних мережах, а також для створення перших чернеток документів, брифінгів чи інших комунікаційних матеріалів.
Бранч вказав на те, що він вважає філософською узгодженістю між Гроком та адміністрацією, як причину ігнорування недоліків чат-бота.
«Бренд Грока — це «модель широкого мовлення проти пробуджених», і це відповідає філософії цієї адміністрації », — сказав Бранч. «Якщо у вас є адміністрація, яка мала численні проблеми з людьми , яких звинувачували в неонацизмі або прихильниках переваги білої раси , а потім вони використовують модель широкого мовлення, пов’язану з таким типом поведінки, я гадаю, що вони можуть мати схильність її використовувати».
Це вже третій лист коаліції після листів з подібними занепокоєннями у серпні та жовтні минулого року. У серпні xAI запустила «гострий режим» у Grok Imagine, що спровокувало масове створення діпфейків сексуального характеру без згоди. TechCrunch також повідомляв у серпні, що приватні розмови Grok були проіндексовані Пошуком Google .
До жовтневого листа Грока звинувачували у поширенні дезінформації щодо виборів , зокрема у встановленні неправдивих термінів внесення змін до бюлетенів та політичних діпфейках. xAI також запустив Grokipedia , яка, на думку дослідників, легітимізувала науковий расизм , скептицизм щодо ВІЛ/СНІДу та теорії змови щодо вакцин.
Окрім негайного призупинення розгортання Grok на федеральному рівні, у листі вимагається, щоб OMB офіційно розслідувало недоліки безпеки Grok та чи були проведені відповідні процедури нагляду за чат-ботом. У ньому також пропонується відомство публічно пояснити, чи було оцінено Grok на предмет відповідності виконавчому розпорядженню президента Трампа, яке вимагає від LLM бути спрямованими на пошук правди та нейтральними, і чи відповідав він стандартам OMB щодо зменшення ризиків.
«Адміністрації потрібно зробити паузу та переглянути, чи відповідає Грок цим пороговим значенням», – сказав Бранч.