ООН предлагает ввести мораторий на использование искусственного интеллекта, ставящего под угрозу права человека

Романов Роман
ООН предлагает ввести мораторий на использование искусственного интеллекта, ставящего под угрозу права человека

Глава ООН по правам человека призывает к мораторию на использование технологий искусственного интеллекта, которые представляют серьезную опасность для прав человека, включая системы сканирования лиц, отслеживающие людей в общественных местах.

Мишель Бачелет, Верховный комиссар ООН по правам человека, также заявила в среду, что страны должны прямо запретить приложения ИИ, которые не соответствуют международному праву в области прав человека.

К приложениям, которые следует запретить, относятся государственные системы «социальной оценки», которые оценивают людей по их поведению, и определенные инструменты на основе ИИ, которые разделяют людей на группы, например, по этнической принадлежности или полу.

Технологии на основе искусственного интеллекта могут быть как силой добра, но они также могут «иметь негативные, даже катастрофические, последствия, если используются без достаточного учета того, как они влияют на права человека», - говорится в заявлении Бачелет.

Ее комментарии сопровождались новым отчетом ООН, в котором исследуется, как страны и компании поспешили применять системы искусственного интеллекта, которые влияют на жизнь и средства существования людей, не создавая надлежащих мер защиты для предотвращения дискриминации и других видов вреда.

«Дело не об отмене искусственного интеллекта», - сказала журналистам Пегги Хикс, директор по тематическому взаимодействию правозащитного центра, когда она представляла отчет в Женеве. «Речь идет о признании того, что если ИИ будет использоваться в этих - очень важных - функциональных областях, связанных с правами человека, то это нужно делать правильно. Мы просто еще не создали структуру, которая обеспечивала бы это».

Бачелет не призывала к полному запрету технологии распознавания лиц, но сказала, что правительства должны прекратить сканирование функций людей в режиме реального времени, пока они не продемонстрируют, что технология точна, не допускает дискриминации и соответствует определенным стандартам конфиденциальности и защиты данных.

un-urges-moratorium-on.jpg (26 KB)

Хотя названия стран в отчете не упоминаются, Китай был среди стран, которые развернули технологию распознавания лиц, особенно для наблюдения в западном регионе Синьцзян, где проживают этнические уйгуры, принадлежащие к нац. меньшинству. Авторы отчета заявили, что наименование конкретных стран не входит в их полномочия и даже может быть контрпродуктивным.

«В контексте Китая, как и в других контекстах, мы обеспокоены прозрачностью и дискриминационными приложениями, которые адресованы конкретным сообществам», - сказала Хикс.

Она процитировала несколько судебных дел в США и Австралии, где неправильно применялся искусственный интеллект.

В отчете также высказываются опасения по поводу инструментов, которые пытаются определить эмоциональное и психическое состояние людей путем анализа их мимики или движений тела, заявив, что такие технологии подвержены предвзятости, неверной интерпретации и не имеют научного обоснования.

«Использование государственными властями систем распознавания эмоций, например для выявления лиц для задержания или ареста полицией или для оценки правдивости заявлений во время допросов, рискует подорвать права человека, такие как право на неприкосновенность частной жизни, свободу и справедливый суд», - говорится в сообщении.

Рекомендации отчета отражают взгляды многих политических лидеров в западных демократиях, которые надеются задействовать экономический и социальный потенциал ИИ, одновременно устраняя растущую озабоченность по поводу надежности инструментов, которые могут отслеживать и профилировать людей и давать рекомендации о том, кто получит доступ к рабочим местам, кредитам и образовательным возможностям.

Европейские регулирующие органы уже предприняли шаги, чтобы обуздать наиболее рискованные приложения искусственного интеллекта. Предлагаемые правила, изложенные официальными лицами Европейского союза в этом году, будут запрещать некоторые виды использования ИИ, такие как сканирование черт лица в реальном времени, и жестко контролировать другие виды использования, которые могут угрожать безопасности или правам человека.

Администрация президента США Джо Байдена выразила аналогичную озабоченность, хотя еще не изложила подробный подход к их утверждению. Недавно сформированная группа под названием Совет по торговле и технологиям, которую совместно возглавляют американские и европейские официальные лица, стремится сотрудничать в разработке общих правил для ИИ и другой технической политики.

Усилия по ограничению наиболее рискованного использования ИИ были поддержаны Microsoft и другими технологическими гигантами США, которые надеются установить правила, влияющие на эту технологию. По словам Хикс, Microsoft работала с Управлением по правам человека и предоставила ему финансирование, чтобы помочь улучшить использование технологий, но финансирование отчета поступило из регулярного бюджета Управления по правам человека.

Западные страны одни из первых выразили обеспокоенность по поводу дискриминационного использования ИИ.

«Если вы думаете о том, как ИИ можно использовать дискриминационным образом или для дальнейшего усиления дискриминационных тенденций, это довольно страшно», - сказала министр торговли США Джина Раймондо во время виртуальной конференции в июне. «Мы должны быть уверены, что этого не произойдет».

Она разговаривала с Маргрет Вестагер, исполнительным вице-президентом Европейской комиссии по цифровым технологиям, которая предположила, что некоторые виды использования ИИ должны быть полностью запрещены в «таких демократиях, как наша». Она процитировала социальную оценку, которая может закрыть доступ к чьим-то привилегиям в обществе, и «широкое, повсеместное использование удаленной биометрической идентификации в публичном пространстве».

По материалам: Techexplore