Ученые рассказали о негативных последствиях внедрения ИИ

Ирина Фоменко

Когда люди думают об искусственном интеллекте, первыми приходят на ум убийцы-андроиды и компьютерные мошенники. Голливудские фильмы, такие как "Бегущий по лезвию" и "Терминатор", внушили нам чувство страха, что ИИ может пойти против людей.

Для отрасли, которая могла бы генерировать более 1 трлн долларов в этом году и почти 4 трлн долларов к 2022 году, любые этические сомнения могут иметь серьезные последствия.

ИИ – популярное выражение, часто встречающиеся в бизнес-сфере и в средствах массовой информации. Искусственный интеллект влияет на множество отраслей – особенно на те, где задействован физический и ручной труд.

На сегодняшний день большинство компаний инвестируют в ИИ, однако многие убеждены, что мало внимания уделяется более широким социальным и моральным последствиям технологий.

В CNBC составили пять самых страшных сценариев будущего для искусственного интеллекта.

1.jpg (70 KB)

Массовая безработица

Главный страх аналитиков и работников: ИИ приведет к массовой глобальной безработице, поскольку рабочие места становятся все более автоматизированными, а человеческий труд больше не требуется.

"Потеря рабочих мест, пожалуй, самая большая проблема", - заявил профессор Эдинбургской школы информатики Алан Банди. По его словам, это основная причина роста популизма во всем мире – примерами являются выборы президента Дональда Трампа и решение Великобритании выйти из Европейского союза.

Сторонники искусственного интеллекта убеждены, что технология приведет к созданию новых видов рабочих мест. Кроме того, люди будут использовать ИИ для выполнения ежедневных задач.

Согласно прогнозу исследовательской фирмы Gartner, искусственный интеллект создаст 2,3 млн рабочих мест, а уничтожит – 1,8 млн. Так, количество профессий вырастет к 2020 году на 500 000. По данным отчета Оксфордского университета 2013 года, под риск попадают брокеры, кассиры банков, страховщики и налоговики.

Хотя, утверждают эксперты, можно свести к минимуму ущерб, наносимый рынку труда ИИ, путем повышения квалификации и создания новых рабочих мест - и, возможно, даже введения гарантированного базового дохода.

2.jpg (59 KB)

Война

Появление так называемых "роботов-убийц" и других применений ИИ в военном деле беспокоит экспертов - технология может закончиться войной.

Исполнительный директор Tesla Илон Маск в прошлом году предупредил, что технология может привести к Третьей мировой войне. Некоторые аналитики и участники кампании утверждают, что развитие смертоносного автономного оружия и использование ИИ в армии создает множество этических дилемм.

Существует даже общественная организация, которая занимается запретом таких машин. Кампания "Остановить роботов-убийц", созданная в 2013 году, призывает правительства предотвратить развитие беспилотных летательных аппаратов и других транспортных средств.

"Единственная область, где применимо слово "страшно" – это автономные комплексы вооружения. Любая компьютерная система, которая автоматически решает вопросы жизни и смерти - например, запуск ракеты - действительно страшная идея", - прокомментировал исследователь искусственного интеллекта в Амстердамском свободном университете Франк ван Хармелен.

Ранее в этом году Rand Corporation в своем исследовании предупредили, что использование ИИ в военных целях может привести к ядерной войне к 2040 году: ошибка ИИ в анализе военной ситуации может привести к принятию опрометчивых и катастрофических решений.

Эти опасения возникли в связи с печально известным инцидентом в 1983 году, когда бывший советский военный офицер Станислав Петров предотвратил ядерную войну после ложного срабатывания системы предупреждения о ракетном нападении со стороны США.

3.jpg (78 KB)

Роботы-врачи

Большинство экспертов согласны с преимуществами ИИ в области здравоохранения, например, с ранним диагностированием болезней, однако некоторые врачи и ученые с осторожностью относятся к этому.

Один из страхов исследователей: люди ожидают слишком многого от ИИ, полагая, что технология сможет решить широкий круг задач.

"Все применения ИИ на сегодняшний день невероятно успешны, но в очень узком диапазоне. Приложение для медицинского диагноза, которое отлично справляется с проблемами сердца, может диагностировать больному раком какую-то редкую проблему сердца", - сообщил Банди. По его словам, эти ожидания могут иметь потенциально опасные последствия для такой отрасли, как здравоохранение.

Только на прошлой неделе в докладе Stat сообщалось, что суперкомпьютер IBM Watson сделал несколько "небезопасных и неправильных" рекомендаций по лечению рака. Согласно этой статье, программное обеспечение было подготовлено только для рассмотрения небольшого числа случаев и гипотетических сценариев, а не фактических данных пациента.

"Мы создали Watson Health три года назад, чтобы использовать ИИ для решения самых больших проблем в здравоохранении, и мы довольны прогрессом. Наши предложения по онкологии и геномике используют 230 больниц по всему миру. Мы улучшили Watson Health, основываясь на постоянной обратной связи с клиентами, новых научных данных, раковых опухолях и альтернативах лечения", - заявили в пресс-службе IBM.

Еще одна проблема заключается в том, что объем данных, охватываемых и используемых компьютерами, а также алгоритмы, которые автоматизируют приложения с использованием этой информации, могут иметь этические последствия для пациентов в вопросе конфиденциальности.

Феномен больших данных позиционируется как прорыв для выявления различных заболеваний. Однако опасения по поводу того, сколько данных хранится и где они находятся, небезосновательны.

Примером является DeepMind, принадлежащая Google. Национальная служба здравоохранения США подписала соглашение с компанией в 2015 году, предоставив ей доступ к данным о состоянии здоровья 1,6 миллиона британских пациентов. Таким образом, пациенты передавали свои данные DeepMind для улучшения возможностей программ обнаруживать болезни. Это привело к созданию приложения под названием "Streams", предназначенного для наблюдения за пациентами с заболеваниями почек и предупреждения врачей об ухудшении состояния больного. В прошлом году Управление Комиссара по информации постановило, что контракт между NHS и DeepMind "не соответствует закону о защите данных".

4.jpg (103 KB)

Массовый надзор

Эксперты также опасаются, что ИИ может использоваться для массового наблюдения. В Китае этот страх, похоже, становится реальностью. Китайские правительственные организации используют технологию распознавания лиц и искусственный интеллект для пресечения преступлений.

Согласно данным отчета New York Times, опубликованному в начале этого месяца, в Китае в настоящее время установлено около 200 миллионов камер видеонаблюдения. Это также единственная страна в мире, внедряющая "систему социального кредита", которая отслеживает деятельность граждан по их оценкам.

Китай, который стремится стать мировым лидером в области ИИ к 2030 году, хочет повысить стоимость IT-сектора до 146,6 млрд долларов.

Одна из ведущих компаний по разработке технологии распознавания лиц – SenseTime. Это самый дорогой стартап в мире, оцениваемый в 4,5 млрд долларов. SenseTime предоставляет свои услуги властям Гуанчжоу и Юньнань. Согласно информации SenseTime, Бюро общественной безопасности Гуанчжоу опознало более 2 000 подозреваемых с 2017 года с помощью этой технологии.

5.jpg (74 KB)

Дискриминация

Стоит вспомнить чат-бота Tay от Microsoft. За сутки бота в Twitter научили писать расистские твиты. Проблема в том, что чат-бот был обучен имитировать пользователей, взаимодействующих с ним в Интернете. Microsoft пришлось удалить учетную запись Tay.

"Дискриминация является одним из негативных последствий технологии. Мы видим это в алгоритмах, особенно машинном обучении", - прокомментировал профессор ИИ в Университете Нового Южного Уэльса Тоби Уолш.

Вопрос дискриминации, по мнению экспертов, связан с осуществимостью задачи сделать ИИ объективным, рациональным "мыслителем", лишенным предвзятости в пользу одной конкретной расы, или пола. Например, технология распознавания лиц хуже распознает афроамериканцев, а языковые системы ИИ ассоциируют определенные гендерные группы и расы со стереотипными ролями.