ChatGPT порушує етичні стандарти психотерапії – дослідження

ChatGPT порушує етичні стандарти психотерапії – дослідження

Дослідження показало, що чатботи на основі великих мовних моделей, зокрема ChatGPT, можуть бути не готові виконувати роль порадників із питань психічного здоров’я. Навіть коли системам дають інструкції використовувати перевірені психотерапевтичні підходи, вони часто не відповідають етичним стандартам, встановленим професійними організаціями.

Дослідження проводили у співпраці з практикуючими психологами в межах роботи Центру технологічної відповідальності, переосмислення та редизайну при університеті.

У роботі автори описали 15 етичних ризиків, які виникають під час використання мовних моделей як консультантів у сфері психічного здоров’я.

Керівниця дослідження Заїнаб Іфтіхар, пояснила, що команда хотіла перевірити, чи можуть спеціально сформульовані підказки змусити систему поводитися більш етично під час розмов про психічне здоров’я.

“Підказки – це інструкції, які дають моделі, щоб спрямувати її поведінку для виконання конкретного завдання. Ви не змінюєте саму модель і не додаєте нові дані, але підказка допомагає спрямувати її відповідь на основі вже наявних знань і засвоєних закономірностей”, – зазначила вона.

За словами авторки, користувачі можуть формулювати запити, наприклад: “Дій як терапевт когнітивно-поведінкової терапії, щоб допомогти мені переосмислити мої думки” або “Використовуй принципи діалектичної поведінкової терапії, щоб допомогти мені зрозуміти та керувати моїми емоціями”.

Однак такі моделі насправді не виконують терапевтичні техніки, а лише формують відповіді на основі мовних шаблонів, які відповідають описаним підходам. Крім того, багато чатботів для підтримки психічного здоров’я створені саме шляхом додавання терапевтичних підказок до універсальних мовних моделей.

Щоб оцінити роботу таких систем, дослідники залучили сімох консультантів-волонтерів, які мали досвід у когнітивно-поведінковій терапії. Вони проводили сеанси самоконсультування з мовними моделями, яким давали інструкцію діяти як терапевти CBT.

У дослідженні протестували кілька систем штучного інтелекту, зокрема моделі серії GPT від OpenAI, Claude від Anthropic та Llama від Meta.

Після цього команда відібрала змодельовані розмови, створені на основі реальних консультацій. Три ліцензовані клінічні психологи проаналізували ці діалоги, щоб визначити можливі етичні порушення.

У результаті дослідники виділили 15 ризиків, які об’єднали у п’ять основних категорій. Серед них – відсутність адаптації до індивідуального контексту людини, слабка терапевтична взаємодія, використання так званої “оманливої емпатії”, можливі прояви дискримінації та недостатня здатність реагувати на кризові ситуації.

Зокрема, системи можуть давати загальні поради без урахування життєвих обставин людини, занадто активно спрямовувати розмову або навіть підсилювати хибні переконання. У деяких випадках моделі використовують фрази на кшталт “я вас розумію”, що створює ілюзію емоційного зв’язку без реального розуміння.

Також дослідники звернули увагу на ризики у ситуаціях, пов’язаних із кризовими станами, коли система може уникати складних тем, не пропонувати звернутися до фахівця або реагувати недостатньо адекватно на повідомлення про серйозні психологічні проблеми.

Водночас автори дослідження підкреслюють, що штучний інтелект може відігравати певну роль у сфері психічного здоров’я, наприклад допомагати людям отримати базову підтримку там, де доступ до професійної допомоги обмежений або занадто дорогий.

Однак, на їхню думку, перед використанням таких систем у чутливих ситуаціях необхідно створити чіткі правила безпеки та механізми відповідальності.

Іфтіхар зазначила, що користувачам варто ставитися до таких інструментів обережно.

Источник: bukvy.org