Исследование: алгоритмы YouTube рекомендуют пользователям видео, о просмотре которых они сожалеют

Романов Роман
Исследование: алгоритмы YouTube рекомендуют пользователям видео, о просмотре которых они сожалеют

Крупное краудсорсинговое исследование показало, что ИИ YouTube по-прежнему рекомендует большинство видео, о просмотре которых пользователи сожалеют. Mozilla запустила исследование с привлечением краудсорсинговой армии добровольцев, в ходе которого выяснилось, что 71% контента, который пользователи сожалеют о просмотре, были рекомендациями алгоритмов искусственного интеллекта YouTube.

На протяжении многих лет высказывались опасения, что алгоритмы YouTube продвигают видео от глупых, но в основном безобидных, до разжигающих ненависть высказываний, заговоров, злоупотреблений, дезинформации и политического / религиозного экстремизма. Чем больше таких видеороликов смотрят, тем чаще их рекомендуют, и образуются опасные пузыри, на которых сосредотачивается внимание пользователей.

«Теперь мы знаем, что YouTube рекомендует видео, которые нарушают их собственные политики в отношении содержания и причиняют вред людям во всем мире - и это нужно прекратить», - говорит Mozilla.

Как продукт Google, одного из мировых лидеров в области искусственного интеллекта, кажется шокирующим, что YouTube по-прежнему дает такие рекомендации. Это заставляет многих сомневаться в том, есть ли мало стимулов для его изменения, поскольку такой кликбейт удерживает пользователей на платформе.

YouTube - крупнейший поставщик онлайн-видео; охват более двух миллиардов зрителей в месяц и более одного миллиарда часов просмотра каждый день. Помня об этом, Google несет огромную ответственность за то, чтобы рекомендуемый контент был уместным. Это не простая задача, но Google должен быть в состоянии справиться с ней.

Таким вещам, как разжигание ненависти и экстремизм, нет места на YouTube, но Google действительно должен идти по тонкой грани, когда дело доходит до того, чтобы избегать таких вещей, как политические предубеждения, которые можно было бы рассматривать как манипуляции на выборах.

Без названия (5).jpeg (9 KB)

Около 9% видео, которые участники исследования Mozilla посмотрели и пожалели о просмотре, были позже удалены с YouTube. На протяжении многих лет Google предпринимал шаги, чтобы попытаться решить некоторые проблемы с контентом на своей платформе, и утверждает, что за последний год внес 30 изменений в свои алгоритмы, чтобы уменьшить количество рекомендаций, содержащих вредоносные видео. Согласно исследованию Mozilla, YouTube рекомендует видео, которые пользователи посмотрели и сожалеют о просмотре, на 60 % выше в странах, где английский не является родным языком. Особенно это касалось Бразилии, Германии и Франции.

В отчете содержится ряд рекомендаций, которые помогут YouTube и его пользователям решить эту проблему. Mozilla рекомендует пользователям проверять историю «просмотра» и «поиска», чтобы удалить все, что, по вашему мнению, не может повлиять на предоставляемый вам контент.

Mozilla также рекомендует YouTube организовать независимый аудит своих систем рекомендаций, быть более прозрачным в отношении пограничного контента и предоставить возможность вообще отказаться от персонализации.

По материалам: Artificialintelligence-news