Стало відомо, як розпізнати міфи від ШІ

Дмитро Сизов

Дарраг Ворланд із News Literacy Project зробила кар’єру, допомагаючи людям оцінювати інформацію, яку вони бачать в Інтернеті. Після того, як вона дослідила обробку природної мови, типу штучного інтелекту, який підтримує такі відомі моделі, як ChatGPT, вона дала методику відокремлення факту від емоцій, що потребує додаткової роботи над текстом.

«Грамотність штучного інтелекту починає ставати абсолютно новою сферою новинної грамотності», — сказала Ворланд, додавши, що її організація створює ресурси, щоб допомогти людям орієнтуватися в заплутаних і суперечливих твердженнях про ШІ.

0076542й.png (466 KB)

Від шахових двигунів до перекладача Google, штучний інтелект існує в тій чи іншій формі з середини 20 століття. Але в наші дні технологія розвивається швидше, ніж більшість людей може це зрозуміти, застерігають експерти з дезінформації. Це робить звичайних людей вразливими до оманливих тверджень про те, що можуть робити інструменти штучного інтелекту та хто відповідальний за їхній вплив.

З появою ChatGPT, вдосконаленого чат-бота від розробника OpenAI, люди почали безпосередньо взаємодіяти з великими мовними моделями, типом системи штучного інтелекту, який найчастіше використовується для автоматичної відповіді на електронні листи, покращення результатів пошуку чи модерування вмісту в соціальних мережах. Чат-боти дозволяють людям ставити запитання або спонукати систему писати все: від віршів до програм. Оскільки механізми генерації зображень, такі як Dall-E , також набувають популярності, компанії намагаються додати інструменти штучного інтелекту, а вчителі хвилюються, як виявляти завдання, створені штучним інтелектом .

Потік нової інформації та припущень навколо ШІ створює різноманітні ризики. Компанії можуть перебільшувати те, що їхні моделі штучного інтелекту можуть робити та для яких цілей можна використовувати. Прихильники можуть просувати науково-фантастичні сюжети, які відвертають увагу від більш безпосередніх загроз. Та й самі моделі можуть виривати невірну інформацію. Базові знання про те, як працюють моделі, а також поширені міфи про штучний інтелект — будуть необхідні для орієнтування в епоху, що прийде.

«Ми повинні розумніше розуміти, що ця технологія може, а що не може, тому що ми живемо в часи ворожнечі, коли інформація, на жаль, стає зброєю», — сказала Клер Уордл, співдиректор лабораторії інформаційного майбутнього Університету Брауна, яка вивчає дезінформацію. і його поширення.

Існує багато способів спотворити штучний інтелект, але деякі попередження з’являються постійно. На думку експертів із штучного інтелекту та інформаційної грамотності, ось кілька поширених пасток, яких слід уникати .

Не проектуйте людські якості

Легко спроектувати людські якості на не людей. (Я купив своєму коту святкову панчоху, щоб він не почувався осторонь.)

Ця тенденція, яка називається антропоморфізмом, викликає проблеми в дискусіях про штучний інтелект, сказала Маргарет Мітчелл, дослідниця машинного навчання та головний науковий спеціаліст з питань етики в компанії штучного інтелекту Hugging Face, і це триває деякий час.

У 1966 році комп’ютерний науковець Массачусетського технологічного інституту на ім’я Джозеф Вайзенбаум розробив чат-бота під назвою ELIZA, який відповідав на повідомлення користувачів, дотримуючись сценарію або перефразовуючи їхні запитання. Вайзенбаум виявив, що люди приписували ЕЛІЗІ емоції та наміри, навіть коли знали, як працює модель.

Оскільки все більше чат-ботів імітують друзів, терапевтів, коханців і помічників, дебати про те, коли комп’ютерна мережа, схожа на мозок, стане «свідомою», відвертатиvenm увагу від нагальних проблем, сказав Мітчелл. Компанії можуть ухилитися від відповідальності за проблемний ШІ, припустивши, що система стала шахрайською. Люди можуть розвивати нездорові відносини з системами, які імітують людей. Організації можуть дозволити системі штучного інтелекту робити помилки, якщо вони розглядатимуть її як ще одного «члена робочої сили», — сказала Ясін Джерніт, керівник машинного навчання та суспільства Hugging Face.

Гуманізація систем штучного інтелекту також розпалює наші страхи, і налякані люди більш вразливі, щоб повірити та поширити неправдиву інформацію, сказав Уордл з Університету Брауна. Завдяки авторам наукової фантастики наш мозок переповнений найгіршими сценаріями, зазначила вона. Такі історії, як «Той, що біжить по лезу» або «Термінатор», представляють майбутнє, де системи штучного інтелекту стануть свідомими і звернуться проти своїх творців-людей. Оскільки багато людей більше знайомі з науково-фантастичними фільмами, ніж з нюансами систем машинного навчання, ми схильні дозволяти своїй уяві заповнювати прогалини. За словами Вордла, помітивши антропоморфізм, коли він трапляється, ми можемо захиститися від міфів про штучний інтелект.

Не дивіться на ШІ як на моноліт

ШІ — це не одна велика річ — це сукупність різних технологій, розроблених дослідниками, компаніями та онлайн-спільнотами. За словами Джернайта, широкі заяви про ШІ мають тенденцію замовчувати важливі питання. Про яку модель ШІ ми говоримо? Хто це збудував? Хто отримує вигоди, а хто оплачує витрати?

Системи штучного інтелекту можуть робити лише те, що дозволяють їхні творці, сказав Джернайт, тому важливо притягувати компанії до відповідальності за те, як функціонують їхні моделі. Наприклад, компанії матимуть різні правила, пріоритети та цінності, які впливатимуть на те, як їхні продукти працюють у реальному світі. ШІ не керує ракетами та не створює упереджених процесів найму. За словами Джернайта та Мітчелла, компанії роблять це за допомогою інструментів ШІ.

«Деякі компанії зацікавлені в представленні [моделей штучного інтелекту] як магічних істот або магічних систем, які роблять речі, які ви навіть не можете пояснити», — сказав Джернайт. «Вони покладаються на це, щоб спонукати до менш ретельного тестування цього матеріалу».

Для людей вдома це означає підіймати брови, коли незрозуміло, звідки надходить інформація системи або як система сформулювала свою відповідь.

Тим часом зусилля щодо регулювання ШІ тривають. Станом на квітень 2022 року приблизно одна третина штатів США запропонувала або прийняла принаймні один закон для захисту споживачів від шкоди або надмірних дій, пов’язаних зі штучним інтелектом.

Скептично ставтеся до інструментів ШІ

Якщо людина зв’язує зв’язне речення, ми зазвичай не справляємо враження. Але якщо це зробить чат-бот, наша впевненість у можливостях бота може різко зрости.

Це називається упередженням автоматизації, і це часто спонукає нас занадто довіряти системам ШІ, сказав Мітчелл. Ми можемо зробити те, що система пропонує, навіть якщо це неправильно, або не зробити щось, тому що система не рекомендувала цього. Наприклад, дослідження 1999 року показало, що лікарі, які використовують систему штучного інтелекту для діагностики пацієнтів, ігнорували б їхні правильні оцінки на користь неправильних пропозицій системи в 6% випадків.0076542й.png (466 KB)

Якщо коротко: те, що модель ШІ може щось робити, не означає, що вона може робити це послідовно й правильно.

Як би спокусливо не було покладатися на єдине джерело, наприклад, на бота пошукової системи, який надає легкозасвоювані відповіді, ці моделі не постійно цитують свої джерела і навіть вигадують підроблені дослідження . Використовуйте ті самі навички медіаграмотності, які б застосували до статті у Вікіпедії чи пошуку в Google, сказав Ворленд з News Literacy Project. Якщо ви надсилаєте запит пошуковій системі штучного інтелекту або чат-боту, перевірте відповіді, створені штучним інтелектом, в інших надійних джерелах, таких як газети, урядові чи університетські веб-сайти чи наукові журнали.