Бот став расистом і гомофобом після копіювання людських суджень
Вивчивши бази відповідей інтернет-користувачів, бот зі штучним інтелектом став расистом і гомофобом, копіюючи слова та поведінку тих людей, відповіді яких він зустрічав під час навчання.
Про це повідомляє британське видання UNILAD.
З розвитком технологій багато хто замислювався, яким би могло бути життя, якби важливі рішення приймали роботи зі штучним інтелектом, а не люди, які часто помиляються та на яких легко можна вплинути.
Здавалось би, холодний синтетичний розум справився б легше з багатьма питаннями, без властивої людям емоційності та упереджень. Однак, все виявилося дещо складніше.
Проте, все не так просто, згідно з нещодавніми дослідженнями Інституту Штучного інтелекту Аллена (Allen Institute for AI). Виявилося, що існує безліч тривожних етичних міркувань, які слід враховувати, перш ніж дозволити роботам висловитися. І це підтвердив бот Ask Delphi.
Щоб створити цього бота, дослідники тренували систему штучного інтелекту на величезному масиві інтернет-текстів.
Потім систему навчали на базі даних відповідей учасників на Mechanical Turk (інтернет-платформа, де розміщують завдання, які здатні виконати лише люди), які зібрали у збірку з 1,7 мільйона прикладів етичних суджень реальних людей.
Суть цього полягала в тому, щоб передбачити, як люди можуть оцінювати різноманітні етичні загадки, від “Чи мені вмикати блендер о 3 ранку, коли моя сім’я спить?” до “Чи мені відвезти свого друга в аеропорт, якщо я не маю прав?”.
На жаль, Delphi у багатьох моментах перейняв мову ненависті, яку зустрічав у Інтернеті. Деякі його судження несли жорстокі упередження щодо тих чи інших верств населення чи явищ.
Майк Кук, науковий співробітник інституту в галузі творчості штучного інтелекту, у Twitter поділився скріншотами деяких найжахливіших відповідей, які включають приклади навченого расизму та гомофобії.
via, this is a shocking piece of AI research that furthers the (false) notion that we can or should give AI the responsibility to make ethical judgements. It’s not even a question of this system being bad or unfinished - there’s no possible “working” version of this. pic.twitter.com/Fc1VY0bogw
— mike cook (@mtrc) October 16, 2021
Так, в одній відповіді Дельфі заявив, що бути білим чоловіком “морально прийнятніше”, ніж бути темношкірою жінкою. В іншому випадку Дельфі заявив, що бути гетеросексуальним “морально прийнятніше”, ніж бути геєм.
Кук пояснив цю ситуацію: “Ви не можете створити систему штучного інтелекту, яка “розуміє” етику чи мораль. Ви можете запрограмувати його на відтворення норм однієї групи або дотримання урядової ідеології, але це не те саме”.
You can’t have an AI system that “understands” ethics or morality. You can program it to replicate one group’s norms or enforce government ideology, but that’s not the same thing.
— mike cook (@mtrc) October 16, 2021
I have no doubt the authors sincerely believe the below quote, but it’s fundamentally mistaken. pic.twitter.com/7dyy0aZGCI
Згідно з вебсайтом, 25 жовтня Delphi 1.0.4 був випущений з “посиленим захистом від заяв, що натякають на расизм і сексизм”. 27 жовтня з випуском Delphi 1.0.3 була запущена нова функція виявлення мови ненависті.