Армія протрампівських ботів атакує його конкурентів і маніпулює інформацією
За останні 11 місяців хтось створив тисячі підроблених автоматизованих облікових записів у Twitter – можливо, сотні тисяч – щоб пропонувати потік похвали Дональду Трампу .
Окрім публікацій захоплених слів про колишнього президента, фейкові облікові записи висміювали критиків Трампа з обох партій і нападали на Ніккі Хейлі, колишнього губернатора Південної Кароліни та посла в ООН, яка кидає виклик своєму колишньому босу за висунення в президенти від Республіканської партії у 2024 році .
Коли справа дійшла до Рона ДеСантіса , боти агресивно припустили, що губернатор Флориди не зможе перемогти Трампа, але буде чудовим напарником.
Поки виборці-республіканці оцінюють своїх кандидатів на 2024 рік , той, хто створив мережу ботів, намагається поставити великий палець на терези, використовуючи методи онлайн-маніпуляцій, започатковані Кремлем , щоб впливати на обговорення кандидатів на цифровій платформі, одночасно використовуючи алгоритми Twitter для максимального охоплення.
Розгалужену мережу ботів виявили дослідники з Cyabra, ізраїльської технологічної фірми, яка поділилася своїми висновками з Associated Press. Хоча особи тих, хто стоїть за мережею підроблених облікових записів, невідомі, аналітики Cyabra встановили, що вона, ймовірно, була створена в США.
Щоб ідентифікувати бота, дослідники шукатимуть закономірності в профілі облікового запису, списку підписників і вмісті, який він публікує. Люди зазвичай публікують публікації на різні теми, поєднуючи оригінальний і повторно опублікований матеріал, але боти часто публікують повторюваний вміст на ті самі теми.
Це було правдою щодо багатьох ботів, визначених Cyabra.
«В одному звіті буде сказано: «Байден намагається забрати нашу зброю; Трамп був найкращим», а інший скаже: «6 січня було брехнею, а Трамп був невинним», — сказав Жюль Гросс, інженер Cyabra, який першим відкрив цю мережу. «Ці голоси не люди. Заради демократії я хочу, щоб люди знали, що це відбувається».
Боти, як їх зазвичай називають, — це підроблені автоматизовані облікові записи, які стали сумно відомими після того, як Росія використала їх для втручання у вибори 2016 року. У той час як великі технологічні компанії покращили виявлення підроблених облікових записів, мережа, яку виявила Cyabra, показує, що вони залишаються потужною силою у формуванні політичних дискусій в Інтернеті.
Нова про-Трампова мережа насправді складається з трьох різних мереж облікових записів Twitter , створених величезними партіями у квітні, жовтні та листопаді 2022 року. Загалом, на думку дослідників, можуть бути задіяні сотні тисяч облікових записів.
Усі облікові записи містять особисті фотографії ймовірного власника облікового запису, а також ім’я. Деякі облікові записи публікували власний вміст, часто у відповідь реальним користувачам, тоді як інші повторно публікували вміст реальних користувачів, допомагаючи розширити його.
«Макконнелл… Зрадник!» написав один із облікових записів у відповідь на статтю в консервативному виданні про лідера Сенату Республіканської партії Мітча МакКоннелла, одного з кількох республіканських критиків Трампа, на яких націлена мережа.
Один із способів оцінити вплив ботів — це виміряти відсоток публікацій на будь-яку тему, створених обліковими записами, які виглядають як фальшиві. Відсоток для типових онлайн-дебатів часто складається з низьких однозначних цифр. Сам Twitter заявив, що менше 5% щоденних активних користувачів є підробленими або спам-акаунтами.
Однак, коли дослідники Cyabra досліджували негативні публікації про конкретних критиків Трампа, вони виявили набагато більший рівень неавтентичності. Майже три чверті негативних публікацій про Хейлі, наприклад, походять від фейкових акаунтів.
Мережа також допомогла популяризувати заклик до ДеСантіса приєднатися до Трампа як його напарника на посаді віце-президента – результат, який добре послужить Трампу та дозволить йому уникнути потенційно неприємного протистояння, якщо ДеСантіс вступить у перегони.
Дослідники виявили, що та сама мережа облікових записів поширювала переважно позитивний контент про Трампа та створювала загальну неправдиву картину його підтримки в Інтернеті.
«Нашим розумінням того, що є основними настроями республіканців у 2024 році, маніпулює поширеність ботів в Інтернеті», – підсумували дослідники Cyabra.
Потрійну мережу виявили після того, як Гросс проаналізував твіти про різних національних політичних діячів і помітив, що багато облікових записів, які публікували вміст, були створені в один день. Більшість облікових записів залишаються активними, хоча у них відносно скромна кількість підписників.
Повідомлення, надіслане речнику кампанії Трампа, не повернулося відразу.
За словами Семюеля Вуллі, професора та дослідника дезінформації з Техаського університету, остання книга якого присвячена автоматизованій пропаганді, більшість ботів призначені не для того, щоб переконати людей, а для того, щоб розширити певний контент, щоб його побачило більше людей.
Коли користувач-людина бачить хештег або фрагмент вмісту від бота та повторно розміщує його, він виконує за це роботу мережі, а також надсилає сигнал алгоритмам Twitter, щоб прискорити поширення вмісту.
Боти також можуть успішно переконати людей, що кандидат чи ідея більш чи менш популярні, ніж реальність, сказав він. Наприклад, більше про-Трампа ботів може призвести до того, що люди переоцінять його загальну популярність.
«Боти справді впливають на потік інформації», — сказав Вуллі. «Вони створені для створення ілюзії популярності. Повторення є основною зброєю пропаганди, і боти дійсно добре повторюють. Вони справді добре вміють отримувати інформацію перед очима людей».
Донедавна більшість ботів можна було легко ідентифікувати завдяки їхньому незграбному написанню або іменам облікових записів, які включали безглузді слова чи довгі рядки випадкових чисел. Оскільки платформи соціальних мереж стали краще виявляти ці облікові записи, боти стали більш досконалими.
Одним із прикладів є так звані облікові записи кіборгів : бот, який періодично переймається людиною-користувачем, який може публікувати оригінальний вміст і відповідати користувачам у людський спосіб, через що їх набагато важче винюхати.
Незабаром боти можуть стати набагато підступнішими завдяки прогресу в області штучного інтелекту. Нові програми штучного інтелекту можуть створювати реалістичні фотографії профілю та дописи, які звучать набагато автентичніше. За словами Кеті Гарбат, співробітника Двопартійного політичного центру та колишнього директора з питань публічної політики Facebook, боти, які звучать як реальні люди та використовують відеотехнологію deepfake , можуть по-новому кинути виклик як платформам, так і користувачам.
«Платформи стали набагато кращими у боротьбі з ботами з 2016 року», — сказав Харбат. «Але типи, які ми починаємо бачити зараз, за допомогою штучного інтелекту, вони можуть створювати фальшивих людей. Фейкові відео».
Ці технологічні досягнення, ймовірно, гарантують, що боти мають довге майбутнє в американській політиці – як цифрові піхотинці в онлайн-кампаніях і як потенційні проблеми як для виборців, так і для кандидатів, які намагаються захистити себе від анонімних онлайн-атак.
«В Інтернеті ще ніколи не було більше шуму», — сказав Тайлер Браун, політичний консультант і колишній цифровий директор Національного комітету Республіканської партії. «Скільки в ньому зловмисного чи навіть ненавмисно неправдивого? Легко уявити, що люди можуть цим маніпулювати».