Как победить ботов в соцсетях

Владимир Тиравский
Как победить ботов в соцсетях

Все более совершенные боты могут так взаимодействовать с людьми, оказывая влияние на их политические взгляды. Хорошая новость - появилась технология противодействия этому.

Об этом пишут в своей колонке на страницах The Guardian - Марина Горбис, исполнительный директор Института будущего (IFTF) и Сэмюэл Вулли - научный руководитель Лаборатории цифровой разведки Института будущего и научный сотрудник Оксфордского интернет-института, эксперт по информационной войне, политической коммуникации, автоматизации и их воздействию на будущее управления.

Могут ли боты, как части программного обеспечения, выполняющие автоматизированные задачи - влиять на людей в соцсетях? Это вопрос, который остается актуальным с тех пор, как возникли опасения, что они повлияли на ход президентских выборов в США в 2016 году.

Еще в 2012 году Институт будущего провел экспериментальный конкурс, чтобы увидеть, как боты могут использоваться, чтобы повлиять на людей в соцсети Twitter. Победивший бот был «выпускником бизнес-школы» с «сильным интересом к теории постмодернистского искусства», в результате чего он «поймал в свои сети»14 фолловеров и получил 15 ретвитов на свои посты. Это еще раз подтвердило, что боты могут генерировать фолловеров и темы для обсуждений. Другими словами, они могут влиять на пользователей социальных сетей.

Сила влияния ботов особенно заметна в качестве потенциального инструмента ради социального блага, например, предупреждать людей о землетрясениях или связывать между собой мирных активистов. Но ботов также можно использовать и с далеко не хорошими целями - распространять фейки или искаженные онлайн-опросы.

Когда были опубликованы результаты этих экспериментов над ботами, они мгновенно появились в популярной прессе, но тревогы по поводу этого в сообществе техников, политиков и общественных активистов  как таковой не было, по крайне мере, до того, как автоматические манипуляции в социальных сетях не стали новостями на первой полосе в 2017 году.

Начиная с 2012 года, благодаря инвестициям в онлайн-маркетинг, боты стали намного изощренее, чем модели в этих экспериментах. Те, кто создают ботов, тратят время и силы на создание правдоподобных персонажей, которые имеют мощное присутствие на нескольких сайтах и могут влиять на тысячи людей.

Инновации в обработке естественного языка, увеличение вычислительных мощностей и более дешевые и доступные данные позволяют ботам быть более правдоподобными как настоящие люди и более эффективными в изменении потока информации.

За последние 5 лет, этот тип использования ботов был привязан к политическим коммуникациям. Исследования, проведенные в нескольких университетах, в том числе в Оксфорде и Университете Южной Калифорнии, показывают, что боты могут использоваться для того, чтобы политические деятели и идеи выглядели более популярными или для широкомасштабных атак на оппозицию.

Похоже, что в 2016 году ботам намеренно дали волю в социальных сетях, чтобы сделать именно это – раскачать мнение избирателей, распространяя фейки и обманывающие алгоритмы.

И политические манипуляции в социальных сетях имеют очень реальные последствия для промежуточных выборов в США в 2018 году. Недавние исследования показывают, что те, кто инициирует цифровые пропагандистские кампании, начинают сосредотачивать свое внимание на конкретных сегментах населения США и избирательных округах в колеблющихся штатах.

Чем более сфокусированы такие атаки, тем больше вероятность того, что они окажут значительное влияние на результаты выборов. Кроме того, нереализованные обещания «психографического» таргетинга, продаваемые такими группами, как Cambridge Analytica в 2016 году, могут быть достигнуты в 2018 году с технологическими достижениями.

Платформы социальных сетей могут отслеживать и сообщать о политической рекламе от иностранных организаций, но будут ли они распространять информацию о персонализированной рекламе от своих внутренних политических клиентов?

Это насущный вопрос, потому что боты, вероятно, будут продолжать расти в своей изощренности. На недавнем круглом столе «Будущее искуственного интеллекта и демократии» несколько экспертов по технологиям прогнозируют, что боты станут еще более убедительными, эмоциональными и персонализированными.

Они смогут не просто распространять информацию, но и по-настоящему разговаривать и убеждать своих собеседников, чтобы еще более эффективно нажимать на их болевые точки.

Объединив достижения в области нейронауки, умение анализировать огромное количество поведенческих данных и распространение сенсоров и возможностей подключения, у ботов есть мощный рецепт воздействия на общество.

Итак, что нужно сделать, чтобы остановить ботов?

Можно рассмотреть достижения современной океанографии. В недалеком прошлом ученые собирали образцы и делали измерения со дна океана эпизодически - в отдельных местах и в определенное время. Данные были ограничены и обычно не были широко распространены. Угрозы было нелегко обнаружить.

Сегодня поиски на дне океана проводят с помощью беспроводных интерактивных датчиков и камер, которые позволяют ученым (и обычным людям) видеть, что происходит там 24 часа в сутки и 7 дней в неделю. Это позволяет ученым «получать импульс» океана, прогнозировать ряд возможных угроз и предлагать мощные  средства воздействия, когда это необходимо.

Таким образом можно поступить и для наблюдения за социальными сетями. Принципы одинаковы: объединение нескольких потоков данных, их прозрачность, применение лучших аналитических и вычислительных инструментов для выявления шаблонов и обнаружения сигналов изменения.

Затем можно предоставить такие данные для ознакомления экспертам, технологическим компаниям, политикам, журналистам и гражданам.