Страх перед апокалипсисом от ИИ отвлекает нас от реальной задачи

Ирина Фоменко
Страх перед апокалипсисом от ИИ отвлекает нас от реальной задачи

С каждым витком технологического прогресса возникает волна страха и неопределенности. Это уже неоднократно повторялось после промышленной революции, когда люди боролись с воздействием новых технологий на их жизнь и работу. Теперь после каждого достижения в развитии искусственного интеллекта возникает страх, пишет ученый Ричард Сочер в своей статье на fortune.com.

Несмотря на огромный прогресс в последние годы, ИИ все еще развивается, и в связи с этим возникает неопределенность. Она только усугубляется, когда происходят сбои или ожидания превосходят реальность - это приводит к непониманию и тревоге. Критик ИИ Элон Муск рисует надвигающийся апокалипсис от искусственного интеллекта, даже если это всего лишь автомобиль Tesla. Все это показывает, что в какой-то степени мы оказались втянутыми в опасный и ненужный цикл зрелости технологий.

Мы должны преодолеть этот необоснованный страх. Вот в чем реальность: сегодня нет надежных исследований, подтверждающих эти сценарии конца света. Это только фикция. Большинству детей нравилось смотреть "Терминатора", но эти развлекательные сценарии отвлекают нас решения непосредственных угроз, создаваемых искусственным интеллектом.

Общество столкнулось с серьезными проблемами, связанными с предвзятостью и отсутствием разнообразия – они безотлагательны и более свойственны человеку, чем сингулярность или восстание роботов.

Обучая искусственный интеллект необъективным данным, мы можем непреднамеренно внедрить в него наши собственные предубеждения и предрассудки. Без увеличения разнообразия некоторые люди будут иметь гораздо большее влияние на скрытые решения, связанные с созданием ИИ. Поскольку ИИ интегрируется в процессы принятия решений, оказывающих значительное влияние на личную жизнь человека (наем на работу, заявки на получение кредита, судебный надзор и медицинские решения), нам нужно будет проявлять бдительность.

"Невинных данных" не существует

Поскольку искусственный интеллект затрагивает наиболее важные человеческие системы, нам нужно иметь в виду, что ИИ не работает в вакууме. Искусственный интеллект опирается на огромное количество данных, которые анализируют алгоритмы. ИИ может быть хорош ровно так же, как и данные, которые он получает. Если данные содержат предвзятость, например, расизм или сексизм, то и результаты будут негативные. Все, что вы преподаете искусственному интеллекту, будет усилено, поскольку алгоритм повторяет свои решения миллионы раз. Предвзятость, ранее невидимая в данных, становится вдруг слишком ясной, поскольку система ИИ начинает выдавать результаты, отражающие наши самые укоренившиеся предрассудки.

В отличие от восстания роботов, предвзятость ИИ не является гипотетическим риском – такой интеллект оценил конкурс красоты, выбрав светлокожих конкурсантов, а не темнокожих. Алгоритм Google классифицировал темнокожие лица как горилл. Согласно одному исследованию, ИИ предпочел европейско-американские имена афроамериканским. В другом эксперименте искусственный интеллект ассоциировал мужские имена с карьерой, математикой и наукой, а женские – с художественными понятиями. Подобно тому, как наши лайки на Facebook влияют на ленту новостей, данные с предрассудками формируют ИИ.

Нам стоит взять на себя ответственность за наши решения, а не перекладывать ее на искусственный интеллект. Первым шагом к устранению предрассудков в данных является повышение прозрачности процесса их сбора. Откуда они? Как и кто их собрал? Сделав работу более ясной, мы сможем выявить те предубеждения, которые ранее не замечали.

Если мы сможем правильно решить эту проблему, то искусственный интеллект по-прежнему останется полезным инструментом для создания лучшего мира. Хоть и невозможно полностью искоренить предрассудки, мы можем создать ИИ, который будет менее предвзятым, нежели человек.

Несмотря на то, что человек создал эти проблемы, он сам и может их решить. Алгоритмы успешны в уничтожении поддельных новостей и выявлении дискриминации, но также необходимо наблюдать за людьми для создания более справедливого искусственного интеллекта. Говоря о том, как ИИ изменит работу, легко представить новую роль: AI Monitor. Все еще необходимо, чтобы человек проверял ввод-вывод ИИ.

Искусственный интеллект – проблема человека

Это приводит нас ко второй проблеме в создании более объективного искусственного интеллекта: нам нужно больше разнообразия в сообществе исследователей и разработчиков. В нескольких исследованиях выявлены серьезные диспропорции в этой отрасли. Согласно Code.org, "чернокожие, латиноамериканцы, американо-индийские и коренные жители островов Тихоокеанского региона недостаточно представлены", составляя только 17% всех специалистов. Нам необходимо активно обеспечивать доступность новых технологий по мере их возникновения. К счастью, ИИ также может помочь в решении этой проблемы. Используя ИИ, мы можем предоставлять более интуитивно понятные инструменты для разработчиков и расширять доступ к образованию, тем самым увеличивая группы, которые, вероятно, и будут создавать ИИ.

Уже можно увидеть, как это происходит – существуют определенные программы, предназначенные для привлечения тех групп людей, которые были недостаточно представлены в информатике. Организация под названием Year Up ежегодно обучает 4000 малоимущих молодых людей в возрасте 18-24 лет в области технологий и финансов. Они добились замечательных успехов: 84% студентов Year Up учатся в колледжах или получают работу в течении полугода после окончания учебы.

Создавая образовательные возможности для более широкого круга людей, не только рабочая сила будет становиться все более разнообразной, но и подход к данным и дизайну ИИ. Таким образом мы сможем избежать последствий от использования только одной стратегии.

Будущее начинается уже сейчас

Двигаясь вперед, мы должны безотлагательно решать эти проблемы. Будущее наступит гораздо быстрее, чем мы это осознаем.

Искусственный интеллект - это, возможно, самый передовой инструмент, когда-либо созданный, и его можно использовать как и в хороших целях, так и плохих. При правильном контроле со стороны ученых и политических лидеров ИИ может изменить мир к лучшему – автоматизировать производство и транспортировку продуктов питания, сделать персонализированное здравоохранение реальностью, заполнить информационные пробелы и дать каждому, независимо от уровня квалификации, возможность быть более продуктивным.

Так, создание лучшего искусственного интеллекта влияет на создание лучшей жизни для человечества. Это своеобразное обещание ИИ - сделать нас лучшими версиями самих себя и дать нам возможность сосредоточиться на творческих и эффективных задачах. Даже в эти дни искусственный интеллект уже помогает нам через "умное зеркало".