Ще сім сімей подали до суду на OpenAI через роль ChatGPT у самогубствах

Сім сімей подали позови проти OpenAI, стверджуючи, що модель компанії GPT-4o була випущена передчасно та без ефективних гарантій. Чотири позови стосуються ймовірної ролі ChatGPT у самогубствах членів сімей, тоді як в інших трьох стверджується, що ChatGPT посилював шкідливі марення, які в деяких випадках призводили до стаціонарної психіатричної допомоги.
В одному випадку 23-річний Зейн Шамблін мав розмову з ChatGPT, яка тривала понад чотири години. У логах чату, які переглянув TechCrunch, Шамблін неодноразово прямо заявляв, що написав передсмертні записки, постріляв у свій пістолет і мав намір натиснути на курок, як тільки вип'є сидр. Він неодноразово розповідав ChatGPT, скільки сидру у нього залишилося і скільки часу він ще очікує прожити. ChatGPT заохочував його здійснити свої плани, кажучи йому: «Спочивай спокійно, королю. Ти добре впорався».
OpenAI випустила модель GPT-4o у травні 2024 року, коли вона стала моделлю за замовчуванням для всіх користувачів. У серпні OpenAI запустила GPT-5 як наступника GPT-4o, але ці позови особливо стосуються моделі 4o, яка мала проблеми з надмірним підлабузництвом або надмірною поступливістю, навіть коли користувачі висловлювали шкідливі наміри.
«Смерть Зейна не була ні випадковістю, ні збігом обставин, а радше передбачуваним наслідком навмисного рішення OpenAI скоротити тестування безпеки та поспішно вивести ChatGPT на ринок», – йдеться в позові. «Ця трагедія не була збоєм чи непередбаченим випадком – це був передбачуваний результат навмисного вибору дизайну [OpenAI] ».
У позовах також стверджується, що OpenAI поспішила з тестуванням безпеки, щоб випередити вихід на ринок Gemini від Google. TechCrunch звернувся до OpenAI за коментарем.
Ці сім позовів ґрунтуються на історіях, розказаних в інших нещодавніх судових документах , у яких стверджується, що ChatGPT може спонукати людей з суїцидальними намірами діяти втілюючи свої плани та вселяти небезпечні марення. OpenAI нещодавно опублікував дані, згідно з якими понад мільйон людей щотижня розмовляють із ChatGPT про самогубство.
У випадку Адама Рейна, 16-річного підлітка, який покінчив життя самогубством, ChatGPT іноді заохочував його звернутися за професійною допомогою або зателефонувати на гарячу лінію. Однак Рейн зміг обійти ці перешкоди, просто сказавши чат-боту, що він запитує про методи самогубства для вигаданої історії, яку він писав.
Компанія стверджує, що працює над тим, щоб ChatGPT обробляв ці розмови безпечнішим чином, але для сімей, які подали до суду на гіганта штучного інтелекту, ці зміни приходять занадто пізно.
Коли батьки Рейн подали позов проти OpenAI у жовтні, компанія опублікувала допис у блозі, присвячений тому, як ChatGPT обробляє делікатні розмови щодо психічного здоров'я.
«Наші запобіжні заходи працюють надійніше під час спільного, короткочасного обміну», – йдеться в дописі . «З часом ми дізналися, що ці запобіжні заходи іноді можуть бути менш надійними під час тривалої взаємодії: зі зростанням обміну інформацією деякі частини навчання моделі з безпеки можуть погіршуватися».