Штучний інтелект не замінить психотерапевта: учені попереджають про етичні порушення

Штучний інтелект не замінить психотерапевта: учені попереджають про етичні порушення

Все більше людей звертаються до штучного інтелекту по психологічні поради — замість або паралельно з реальним терапевтом. Комусь так простіше, комусь дешевше, а хтось просто хоче “виговоритися”. Проте чат-бот постійно порушує етичні стандарти, повідомляє ScienceDaily.

Вчені з Браунського Університету провели дослідження, яке показало, що авіть якщо попросити чат-бота поводитися як професійний психолог, він регулярно порушує базові етичні стандарти психотерапії. 

Як ШІ може порушувати етичні норми 

Команда з Браунського університету працювала разом із практикуючими психологами. Вони змоделювали консультації, де досвідчені peer-консультанти взаємодіяли з популярними мовними моделями — зокрема GPT від OpenAI, Claude від Anthropic та Llama від Meta.

Моделям давали чіткі інструкції: діяти як когнітивно-поведінковий терапевт або використовувати принципи діалектичної поведінкової терапії.

Вчені зафіксували 15 окремих ризиків — від неправильної реакції на кризові ситуації до так званої “оманливої емпатії”, коли система створює ілюзію співпереживання, не маючи справжнього розуміння.

Дослідники підкреслюють: людські терапевти теж можуть помилятися. Але вони підпорядковуються професійним асоціаціям, етичним кодексам і можуть втратити ліцензію за порушення.

У випадку ШІ-систем такої структури відповідальності поки що не існує. Немає чітких регуляторних рамок, стандартів якості чи юридичної відповідальності за помилку.

Источник: speka.ua