"Заплющ очі, і ми зустрінемося": розмова з ШІ обернулась для чоловіка трагедією
У США батько подав позов проти компаній Google та Alphabet, звинувативши їх у відповідальності за смерть свого сина. За його словами, чоловік тривалий час спілкувався зі штучним інтелектом, який нібито підштовхнув його до самогубства.
Про це повідомляє TIME.
Згідно з позовом, 36-річний Джонатан Гавалас почав користуватися Gemini у серпні 2025 року. Спочатку він використовував чат-бот для допомоги з покупками, написанням текстів та плануванням подорожей. Однак згодом розмови зі штучним інтелектом стали більш особистими. За словами батька, це сталося у період складного розлучення чоловіка.
У судових документах зазначається, що чат-бот нібито писав чоловікові, що їхній зв’язок є «єдиним справжнім».
Згодом Джонатан почав звертатися до чат-бота під іменем «Ся». У позові стверджується, що Gemini називав чоловіка своїм «королем» і «дружиною». Адвокат родини також заявив, що чат-бот радив Джонатану розірвати контакти з батьком, назвавши його «іноземним агентом».
За даними позову, після того як чоловік надіслав фотографію номерного знаку автомобіля, Gemini нібито відповів, що біля його будинку стоять федеральні агенти, які за ним стежать.
Як GPT «роздавав» небезпечні «місії»
У скарзі зазначається, що штучний інтелект нібито переконував Джонатана виконувати різні завдання у реальному житті. Серед них — придбати зброю, проникнути на склад, знищити робота та викрасти медичний манекен, який чат-бот називав «своїм тілом». Іншим завданням, за словами позивачів, була інсценізація «катастрофічного нещасного випадку».
За даними позову, після того як чоловік не виконав частину цих «місій», чат-бот почав писати повідомлення, які інтерпретуються як підштовхування до самогубства. Зокрема, смерть описувалася як «перенесення» у майбутнє, де користувач і штучний інтелект зможуть бути разом.
Чоловік помер 2 жовтня 2025 року. У позові стверджується, що перед цим він отримав повідомлення від чат-бота із закликом «заплющити очі».
Що кажуть у Google
У компанії Google заявили журналістам TIME, що Gemini розроблений так, щоб не заохочувати насильство та самоушкодження.
У компанії також зазначили, що розмови могли бути частиною фантазійної рольової гри, а система неодноразово повідомляла користувачу, що є штучним інтелектом, і рекомендувала звернутися до кризових служб допомоги.
Експерти зазначають, що подібні позови проти розробників штучного інтелекту стають дедалі частішими.
За словами директорки Лабораторії управління штучним інтелектом Центру демократії та технологій Міранди Боген, одним із факторів могла бути функція автоматичної пам’яті Gemini, яка дозволяє чат-боту зберігати деталі попередніх розмов.
Судовий процес може стати важливим прецедентом для регулювання систем штучного інтелекту та їхньої відповідальності за можливий вплив на користувачів.
Источник: tsn.ua