Искусственный интеллект должен идентифицировать себя как робота

Ирина Фоменко

Законопроект, согласно которому боты ИИ должны идентифицировать себя как роботов, рассматривается в Конгрессе Калифорнии, однако столкнулся с оппозицией Фонда электронных рубежей (EFF). Об этом сообщает The Register.

1.jpg (38 KB)

B.O.T. Act (SB 1001) запрещает ИИ общаться с американскими гражданами, не сообщив им, что с ними ведет диалог робот, а не человек.

Законопроект прошел уже второе чтение на этой неделе, но в свете недавней демонстрации Google, где цифровой помощник записывается на стрижку, некоторые эксперты считают, что закон слишком обобщен и будет препятствовать развитию технологий.

В самом законе отмечается, что, в случае взаимодействия бота с "физическим лицом" с "намерением ввести в заблуждение и без четкого и явного раскрытия информации об его искусственной идентичности", такое действие будет считаться незаконным.

Стрижка, сэр, я имею в виду, они?

2.jpeg (89 KB)

Более "живой" разговор робота становится все актуальней после демонстрации Google технологии Duplex в начале этого месяца, когда машина отвечала на различные человеческие фразы "эээ" или "ммм".

Множество наблюдателей были впечатлены; так же, как многие были обеспокоены. Выяснилось, что демонстрация Google была сделана таким образом: люди полагали, что разговаривают с человеком, когда на самом деле это была машина.

Поэтому, утверждают аналитики, законопроект как нельзя более своевременен. В Фонде электронных рубежей считают, что законопроект "поднимает существенные проблемы в отношении свободы слова".

Но, безусловно, свобода слова - это исключительно право человека? В противном случае Siri будет судиться с разработчиками Apple за то, что в компании "подвергли ее бесконечным часам глупости".

EFF не принимает во внимание это различие, тем не менее, утверждает, что боты используются для всех видов деятельности, которые могут квалифицироваться как высказывание или действие, защищенное законом о свободе слова, например, политическая речь, сатира и поэзия.

"Речь, созданная ботами, часто является просто речью физических лиц, обработанной компьютерной программой", - сообщают в Фонде. – "Раскрытие информации ограничивает реплики деятелей искусства, чьи проекты могут потребовать не раскрывать, что бот – машина".

Впрочем, если бот просто передает напрямую то, что говорит человек, то это не бот. Если он использует записанную человеческую речь и придает ей другое значение, то это – бот.

Искусство аферы

3.jpg (46 KB)

Деятели искусства обычно представляют свою работу в определенном месте и окружающей среде, и люди знают об этом факте, поэтому для защиты существует множество других законов.

По мнению экспертов EFF, большая проблема с законодательством заключается в том, что "не всегда легко определить, контролируется ли учетная запись ботом, человеком или группой из людей и машин".

Предположительно, люди просто обратятся к платформам самостоятельно - Twitter, Facebook и др. – разрешить спор. Хотя мысль, что бот может врать и ругаться, выставляя себя за человека, может быть интересной.

Но на более широком, философском уровне EFF заявляет: "Когда высказывание или действие, защищенное законом о свободе слова, подвержено риску, нецелесообразно пытаться хитрить, а потом разбираться с этим".

Это справедливый аргумент. За исключением случаев, когда это не так. Иногда должен быть установлен закон, а затем - сделаны исключения.