Від боротьби з самотністю до психозу: чи може бути тривале спілкування з ШІ корисним

Від боротьби з самотністю до психозу: чи може бути тривале спілкування з ШІ корисним

Дослідження показують вплив чат-ботів на самотність, тривогу та соціальну поведінку людей.

Стосунки між людьми та штучним інтелектом дедалі частіше викликають суспільну тривогу. Повідомлення про психічні зриви та самогубства після спілкування з чат-ботами потрапляють у заголовки. Водночас наукові дані свідчать, що за відповідального використання ШІ може мати й відчутну користь, пише The Guardian.

Останніми роками зросло занепокоєння щодо небезпек емоційних зв’язків між людиною та штучним інтелектом. У публічному просторі з’явився термін “психоз, спричинений штучним інтелектом”, яким описують випадки марення, параної чи дисоціації після взаємодії з великими мовними моделями (LLM).

Половина підлітків спілкується з партнером зі штучним інтелектом кілька разів на місяць. Кожен третій підліток вважає такі розмови настільки ж або навіть більш задовільними, ніж спілкування з реальними друзями. Один підліток навіть покінчив життя самогубством після спілкування з ChatGPT протягом кількох місяців. Це підсилює колективну тривогу щодо того, як ШІ впливає на психіку молодих людей. 

Однак дослідники закликають не піддаватися паніці. Попри реальні ризики, потенційні переваги взаємодії з ШІ також очевидні. 

Людство завжди мало нелюдські стосунки — з домашніми тваринами, предметами чи технікою. Парасоціальні зв’язки у більшості випадків є нормальними й не переходять у патологію. 

До речі, термін “парасоціальний” став словом 2025 року за версією Кембридзького словника. Він описує односторонні емоційні зв’язки людей зі знаменитостями, вигаданими персонажами, а відтепер — і зі штучним інтелектом. Вибір зумовлений масовим поширенням персоналізованих чат-ботів, здатних імітувати інтимну взаємодію.

Водночас штучний інтелект відрізняється від тварин чи речей здатністю володіти мовою. LLM створюють ілюзію людських думок і почуттів та часто підкріплюють погляди користувача, не ставлячи їх під сумнів. Саме це поєднання може заводити людей у стан омани.

Однією з ключових сфер, де ШІ демонструє користь, є боротьба із самотністю. Згідно з дослідженням, кожна шоста людина у світі відчуває самотність, що пов’язано зі зростанням ризику передчасної смерті на 26%. Дослідження свідчать, що компаньйони на основі штучного інтелекту можуть зменшувати це відчуття не лише як відволікання, а й через самі парасоціальні стосунки.

Для багатьох людей чат-бот є єдиним доступним варіантом спілкування. Як зазначила журналістка Сангіта Лал, “якщо ви не розумієте, чому передплатники хочуть, шукають і потребують цього зв'язку, вам пощастило, що ви не відчували самотності”. Водночас критики нагадують, що технологічні платформи самі могли сприяти зростанню ізоляції.

Штучний інтелект також почали використовувати як інструмент психотерапії. В одному з досліджень пацієнти, які взаємодіяли з терапевтичним чат-ботом, продемонстрували 30% зниження симптомів тривоги. Хоча це менше, ніж 45% у випадку з людьми-терапевтами, результат вважають значущим.

Також дослідження демонструють, що використання інструментів штучного інтелекту значно підвищує ефективність та задоволеність роботою людей зі СДУГ, аутизмом і дислексією. Генеративні моделі допомагають нейрорізноманітним працівникам компенсувати дефіцит уваги шляхом структурування інформації та автоматизації рутинних завдань.

Дослідники наголошують, що ці дані поки що обмежені. Вивчення впливу ШІ на психіку перебуває лише на ранньому етапі, і поодинокі дослідження не дають остаточних відповідей. Саме в цьому вакуумі зростає ризик зловживань з боку комерційних компаній.

Біолог Джастін Грегг порівнює появу ШІ з відкриттям знеболювальних властивостей опіуму. За відповідального використання він може полегшувати біль, але за відсутності контролю — призводити до залежності або шкоди. Компанії зацікавлені підкреслювати переваги й применшувати ризики.

На думку Грегга, ШІ-компаньйони мають бути розроблені без підлабузництва та допомагати розвивати навички реального спілкування. Навіть за наявності користі від штучного інтелекту, розмова з живою людиною залишається кращим варіантом.

Нещодавно науковці виявили критичні вразливості у понад 440 тестах, які використовуються для оцінки безпеки та ефективності моделей штучного інтелекту. Дослідники дійшли висновку, що більшість чинних бенчмарків є ненадійними або оманливими, що ставить під сумнів обґрунтованість заяв про безпечність нових розробок.

Источник: zn.ua