Эксперты предложили метод оценки доверия пользователей к искусственному интеллекту

Эксперты предложили метод оценки доверия пользователей к искусственному интеллекту

Национальный институт стандартов и технологий США (The National Institute of Standards and Technology, NIST) представил проект новой инициативы, целью которой является инициировать дискуссию о доверии людей к системам на базе искусственного интеллекта (ИИ). Документ «Искусственный интеллект и доверие пользователей» (NISTIR 8332) открыт для общественного обсуждения до 30 июля 2021 года.

Документ опубликован в рамках более широкой инициативы NIST по развитию надежных систем ИИ. Его целью является понять, как люди доверяют ИИ, используя его или находясь под его влиянием. Вопрос заключается в том, можно ли точно и надежно измерить уровень этого доверия.

По словам авторов документа, психолога Брайана Стентона (Brian Stanton) и компьютерного специалиста Теда Дженсена (Ted Jensen), их исследование базируется на прошлых исследованиях в области доверия, начиная с неотъемлемой роли доверия в истории человечества и того, как оно повлияло на познавательные процессы в психике человека. Исследователи постепенно обращаются к уникальным проблемам доверия, связанным с ИИ, который быстро берет на себя задачи, выходящие за рамки человеческих возможностей.

Публикация NIST предлагает список из девяти факторов, влияющих на потенциальное доверие человека к ИИ. Эти факторы отличаются от технических требований к надежному ИИ, установленных NIST вместе с сообществом разработчиков и практиков ИИ. В документе показано, как человек может по-разному взвешивать описанные факторы в зависимости как от самой задачи, так и от риска, связанного с доверием к принятому ИИ решению.

Одним из таких факторов является точность. Алгоритм выбора музыки не обязательно должен быть чрезмерно точным, особенно если человеку интересно время от времени выходить за рамки своих вкусов, чтобы попробовать что-то новенькое. Кроме того, пропустить предложенную песню и перейти к следующей очень легко. Совсем другое дело – доверять ИИ при диагностировании таких серьезных заболеваний, как рак.

«Мы предлагаем модель доверия пользователей к ИИ. Она базируется на чужих исследованиях и фундаментальных принципах познания. По этой причине мы хотели бы получить отзывы о работе, которую может проводить научное сообщество для экспериментального подтверждения этих идей», – сообщили авторы исследования.

Все желающие могут оставить свои отзывы о документе, заполнив форму и отправив ее на адрес aiusertrustcomments@nist.gov.

Источник: securitylab.ru