OpenAI каже, що російські групи використовували його інструменти для поширення дезінформації

Дмитро Сизов
OpenAI каже, що російські групи використовували його інструменти для поширення дезінформації

OpenAI опублікувала свій перший звіт про те, як її інструменти штучного інтелекту використовуються для таємних операцій впливу, показуючи, що компанія зірвала кампанії з дезінформації, що походять з Росії, Китаю, Ізраїлю та Ірану.

Зловмисники використовували генеративні моделі штучного інтелекту компанії для створення та публікації пропагандистського контенту на платформах соціальних мереж, а також для перекладу їх вмісту різними мовами. Згідно зі звітом, жодна з кампаній не отримала популярності та не охопила широку аудиторію .

Оскільки генеративний штучний інтелект став швидко розвивається галуззю, серед дослідників і законодавців виникло широке занепокоєння щодо його потенціалу для збільшення кількості та якості онлайн-дезінформації. Компанії штучного інтелекту, такі як OpenAI, яка виробляє ChatGPT, намагалися з неоднозначними результатами заспокоїти ці занепокоєння та поставити огорожі на свою технологію.

39-сторінковий звіт OpenAI є одним із найдетальніших звітів компанії штучного інтелекту про використання її програмного забезпечення для пропаганди. OpenAI стверджував, що його дослідники знайшли та заборонили облікові записи, пов’язані з п’ятьма таємними операціями впливу протягом останніх трьох місяців, які проводилися як державними, так і приватними особами.

У Росії дві операції створювали та поширювали контент із критикою США, України та кількох країн Балтії. Одна з операцій використовувала модель OpenAI для налагодження коду та створення бота, який опублікував у Telegram. Операція впливу Китаю створила текст англійською, китайською, японською та корейською мовами, який потім оперативники опублікували в Twitter і Medium.

Іранські актори генерували повні статті, які нападали на США та Ізраїль, які вони перекладали англійською та французькою мовами. Ізраїльська політична фірма під назвою Stoic керувала мережею фейкових облікових записів у соціальних мережах, які створювали низку контенту, включно з повідомленнями, в яких протести американських студентів проти війни Ізраїлю в Газі були антисемітськими.

Кілька розповсюджувачів дезінформації, заборонених OpenAI на своїй платформі, вже були відомі дослідникам і владі. У березні Міністерство фінансів США наклало санкції на двох росіян, які нібито стояли за однією з кампаній, виявлених OpenAI, а Meta також забанила Stoic на своїй платформі цього року за порушення своєї політики.

У звіті також підкреслюється, як генеративний штучний інтелект впроваджується в кампанії з дезінформації як засіб покращення певних аспектів створення контенту, наприклад створення більш переконливих повідомлень іноземною мовою, але це не єдиний інструмент пропаганди.

«Усі ці операції певною мірою використовували штучний інтелект, але жодна не використовувала його виключно», — йдеться у звіті. «Натомість створений штучним інтелектом матеріал був лише одним із багатьох типів контенту, який вони публікували, поряд із більш традиційними форматами, такими як написані вручну тексти або меми, скопійовані з Інтернету».

Хоча жодна з кампаній не дала помітного впливу, використання ними технології показує, як зловмисники виявляють, що генеративний ШІ дозволяє їм збільшити виробництво пропаганди. Написання, переклад і публікація контенту тепер можна робити більш ефективно за допомогою інструментів штучного інтелекту, що знижує планку для створення кампаній дезінформації.

Протягом останнього року зловмисники використовували генеративний ШІ в країнах по всьому світу, щоб намагатися вплинути на політику та громадську думку. Deepfeke аудіо, зображення, створені штучним інтелектом, і текстові кампанії використовувалися для зриву виборчих кампаній , що призвело до посилення тиску на такі компанії, як OpenAI, щоб обмежити використання їхніх інструментів.

OpenAI заявила, що планує періодично публікувати подібні звіти про таємні операції впливу, а також видаляти облікові записи, які порушують її політику.