Алгоритм рекомендаций YouTube не поощряет радикализм

Романов Роман
Алгоритм рекомендаций YouTube не поощряет радикализм

Изучая миллионы рекомендаций YouTube в течение года, два исследователя определили, что видеохостинг фактически борется с политической радикализацией.

Исследователи отмечают, что, по состоянию на конец 2019-го, алгоритм рекомендаций YouTube, похоже, более предназначен для выгоды стриминговых СМИ и новостного контента кабельных сетей, чем для независимых творческих пользователей YouTube. В исследовании, опубликованном во вторник, также говорится, что алгоритм YouTube предпочитает лево-направленные и политически нейтральные каналы.

Независимый исследователь данных Марк Ледвич и пост-докторский исследователь Калифорнийского университета в Беркли Анна Зайцева провели исследование, результаты которого говорят, что, хотя радикальный контент существует на видеохостинге, в настоящее время алгоритм рекомендаций не направляет пользователей к таким видео.

«На YouTube явно много контента, который можно рассматривать как радикализм или подстрекательство. Однако ответственность за этот контент несет создатель контента и сами пользователи», - отмечено в исследовании. «Перенос ответственности за радикализацию контента с пользователей и создателей на YouTube по нашим данным не подтвержден».

Это исследование было опубликовано после серии публикаций New York Times о радикализации на YouTube, принадлежащем Google. В одной из статей  26-летний Калеб Каин рассказывает, как он попал в то, что он назвал «альт-правая кроличья нора».

YouTube, как и все социальные медиа-платформы, в последние годы занимается проблемой модерации контента. На видеохостинге работает команда модераторов, в обязанности которых входит просмотр и фильтрация платформы от жестокого и радикального контента.

«На YouTube всегда будет контент, который противоречит нашей политике, но не пересекает границы», - написала компания в своем блоге ранее в этом месяце. «Таким образом, последние несколько лет мы работали над тем, чтобы привлечь авторитетные голоса на YouTube и сократить распространение пограничного контента и вредной дезинформации».

Ледвич в пятницу опубликовал эссе на Medium, чтобы объяснить результаты своего исследования и подвергнуть критике освещение в новостях алгоритма рекомендаций YouTube.

«Вопреки информации, распространяемой New York Times, данные исследований свидетельствуют о том, что алгоритм рекомендаций YouTube активно препятствует зрителям посещать контент, который можно классифицировать как радикализирующий или сомнительный иным образом», - сказал он в посте.

По материалам: CNBC