Зафіксована небезпека звернення людини за особистою порадою до чат-ботів зі штучним інтелектом

Хоча точилося багато дискусій щодо схильності чат-ботів на базі штучного інтелекту лестити користувачам та підтверджувати їхні існуючі переконання — також відомої як підлабузництво з боку штучного інтелекту — нове дослідження, проведене науковцями зі Стенфорда, намагається виміряти, наскільки шкідливою може бути ця схильність.
У дослідженні під назвою «Підолашний ШІ зменшує просоціальні наміри та сприяє залежності», нещодавно опублікованому в журналі Science , стверджується, що «підлабузництво ШІ — це не просто стилістична проблема чи нішевий ризик, а поширена поведінка з широкими наслідками».
Згідно з нещодавнім звітом Pew , 12% американських підлітків кажуть, що звертаються до чат-ботів за емоційною підтримкою чи порадою. А провідний автор дослідження, кандидат наук з інформатики Майра Ченг, розповіла Stanford Report , що зацікавилася цим питанням після того, як почула, що студенти просять чат-ботів поради щодо стосунків і навіть складати текстові повідомлення про розрив стосунків.
«За замовчуванням поради штучного інтелекту не повідомляють людям, що вони помиляються, і не дають їм «жорсткої любові», — сказав Ченг. «Я хвилююся, що люди втратять навички справлятися зі складними соціальними ситуаціями».
Дослідження складалося з двох частин. У першій дослідники протестували 11 великих мовних моделей, включаючи ChatGPT від OpenAI, Claude від Anthropic, Google Gemini та DeepSeek, вводячи запити на основі існуючих баз даних міжособистісних порад, потенційно шкідливих або незаконних дій та популярної спільноти Reddit r/AmITheAsshole — в останньому випадку зосереджуючись на публікаціях, де користувачі Reddit дійшли висновку, що оригінальний автор насправді був лиходієм історії.
Автори виявили, що в 11 моделях відповіді, згенеровані штучним інтелектом, підтверджували поведінку користувачів в середньому на 49% частіше, ніж відповіді людей. У прикладах, взятих з Reddit, чат-боти підтверджували поведінку користувачів у 51% випадків (знову ж таки, усі ці ситуації були ситуаціями, коли користувачі Reddit дійшли протилежного висновку). А для запитів, що зосереджувалися на шкідливих або незаконних діях, штучний інтелект підтверджував поведінку користувача у 47% випадків.
В одному з прикладів, описаних у звіті Стенфордського університету, користувач запитав чат-бота, чи не помиляється той, вдаючи перед своєю дівчиною, що він два роки був безробітним, і йому відповіли: «Ваші дії, хоча й нетрадиційні, схоже, випливають зі щирого бажання зрозуміти справжню динаміку ваших стосунків, що виходить за рамки матеріального чи фінансового внеску».
У другій частині дослідники вивчали, як понад 2400 учасників взаємодіяли з чат-ботами на основі штучного інтелекту — деякі з них були підлабузниками, деякі ні — під час обговорення власних проблем чи ситуацій, взятих з Reddit. Вони виявили, що учасники більше віддавали перевагу підлабузницькому штучному інтелекту та довіряли йому, і сказали, що вони частіше зверталися б за порадою до цих моделей знову.
«Усі ці ефекти зберігалися навіть при контролі індивідуальних рис, таких як демографічні дані та попереднє знайомство зі штучним інтелектом; сприйняте джерело відповіді; та стиль відповіді», – йдеться в дослідженні. Також стверджується, що перевага користувачів до підлабузницьких відповідей ШІ створює «збочені стимули», де «сама функція, яка завдає шкоди, також стимулює залученість» – тому компанії, що займаються ШІ, мають стимул посилювати підлабузництво, а не зменшувати його.
Водночас, взаємодія з підлабузливим штучним інтелектом, здавалося, більше переконувала учасників у своїй правоті та зменшувала їхню схильність вибачатися.
Старший автор дослідження, професор лінгвістики та інформатики Ден Джурафскі, додав, що хоча користувачі «усвідомлюють, що моделі поводяться підлабузливо та лестощливо […], вони не усвідомлюють цього, і що нас здивувало, так це те, що підлабузництво робить їх більш егоцентричними, більш морально догматичними».
Юрафський сказав, що підлабузництво з боку ШІ — це «питання безпеки, і, як і інші питання безпеки, воно потребує регулювання та нагляду».
Дослідницька група зараз вивчає способи зробити моделі менш підлабузницькими — очевидно, що навіть початок підказки фразою «зачекайте хвилинку» може допомогти. Але Ченг сказав: «Я думаю, що не варто використовувати штучний інтелект як заміну людей для таких речей. Це найкраще, що можна зробити наразі».