Искусственный интеллект научили предугадывать споры

Искусственный интеллект научили предугадывать споры

Специалисты Корнуэлльского университета (США), подразделения Google Jigsaw и фонда Wikimedia создали алгоритм, который сканирует обсуждения в интернете и определяет, чем они закончатся - грубой перепалкой или вежливой беседой

Систему тренировали и тестировали на обсуждениях статей «Википедии», где редакторы обсуждали, в частности, внесение правок в материал и необходимость в более достоверных источниках.

Система была запрограммирована искать в обсуждении определенные признаки, которые, согласно исследованиям, демонстрируют связь с тоном общения.

Если обсуждение проходит хорошо, то в нем встречаются выражения благодарности и приветствия. Активно используется слово «пожалуйста». Все это создает дружественную атмосферу и эмоциональный буфер между участниками беседы, в которой каждый может признать свою неправоту, сохранив лицо.

С другой стороны, тревожные знаки, говорящие о потенциальном конфликте, включают в себя наличие повторяющихся прямых вопросов ("Почему тут об этом не упоминается?», «Почему ты не посмотрел на это?") и использование местоимений второго лица ("Твои источники не важны"), особенно если они встречаются в первых репликах беседы.

Чтобы оценить общую «токсичность» разговора исследователи использовали перспективный API компании Google - инструмент с искусственным интеллектом, который пытается оценить, насколько дружелюбным, нейтральным или агрессивным является текст. По окончании периода тренировки алгоритм мог предсказать исход беседы в 65% случаев. Люди пока справляются с этой задачей лучше, удачно предсказывая развитие обсуждения в 72% случаев.

Ученным данная работа говорит о том, что они находятся на верном пути к созданию бота, способного вмешиваться в потенциально «горячие» споры в сети.

Источник: comments.ua