Жертва переслідування подає до суду на OpenAI

Після місяців розмов із ChatGPT, 53-річний підприємець із Кремнієвої долини переконався, що відкрив ліки від апное сну, і що впливові люди переслідують його, згідно з новим позовом, поданим до Вищого суду Каліфорнії в окрузі Сан-Франциско. Потім він нібито використовував інструмент для переслідування та домагань своєї колишньої дівчини.
Тепер колишня дівчина судиться з OpenAI, стверджуючи, що технології компанії сприяли прискоренню її домагань, як ексклюзивно стало відомо TechCrunch. Вона стверджує, що OpenAI проігнорувала три окремі попередження про те, що користувач становив загрозу для інших, включаючи внутрішню позначку, яка класифікувала активність його облікового запису як таку, що включає зброю для масових втрат.
Позивач, яку для захисту своєї особи називають Джейн Доу, подає позов про відшкодування збитків. У п'ятницю вона також подала тимчасовий заборонний наказ, просячи суд зобов'язати OpenAI заблокувати обліковий запис користувача, заборонити йому створювати нові, повідомити її, якщо він спробує отримати доступ до ChatGPT, та зберегти повні журнали його чатів для подальшого розслідування.
За словами адвокатів Доу, OpenAI погодилася заблокувати обліковий запис користувача, але відмовилася від решти. Вони кажуть, що компанія приховує інформацію про конкретні плани щодо завдання шкоди Доу та іншим потенційним жертвам, які користувач міг обговорювати з ChatGPT.
Позов було подано на тлі зростаючого занепокоєння щодо реальних ризиків, пов'язаних із підлабузницькими системами штучного інтелекту. Модель GPT-4o, яка згадувалася в цьому та багатьох інших справах, була вилучена з ChatGPT у лютому .
Справу порушено Edelson PC, фірмою, яка стоїть за позовами про неправомірну смерть підлітка Адама Рейна , який покінчив життя самогубством після місяців розмов з ChatGPT, та Джонатана Гаваласа , чия родина стверджує, що Gemini від Google підживлював його марення та потенційну подію з масовими жертвами перед його смертю. Провідний адвокат Джей Едельсон попередив, що психоз, викликаний штучним інтелектом, переростає від індивідуальної шкоди до подій з масовими жертвами .
Цей юридичний тиск зараз безпосередньо суперечить законодавчій стратегії OpenAI: компанія підтримує законопроект Іллінойсу , який захистить лабораторії штучного інтелекту від відповідальності навіть у випадках масових смертей або катастрофічної фінансової шкоди.
OpenAI не відповів вчасно, щоб прокоментувати. TechCrunch оновить статтю, якщо компанія відповість.
У позові Джейн Доу детально викладено, як ця відповідальність проявилася для однієї жінки протягом кількох місяців.
Минулого року користувач ChatGPT, про якого йдеться у позові (ім'я якого не згадується в позові для захисту його особистості), переконався, що винайшов ліки від апное сну, після місяців «великого, тривалого вживання GPT-4o». Коли ніхто не сприйняв його роботу серйозно, ChatGPT сказав йому, що за ним спостерігають «потужні сили», зокрема використовують гелікоптери для спостереження за його діяльністю, йдеться у скарзі.
У липні 2025 року Джейн Доу закликала його припинити використовувати ChatGPT та звернутися за допомогою до фахівця з психічного здоров'я. Натомість він знову звернувся до ChatGPT, який, згідно з позовом, запевнив його, що він «на 10-му рівні осудності», і допоміг йому подвоїти свої марення.
Згідно з електронними листами та повідомленнями, наведеними в позові, Доу розійшовся з користувачем у 2024 році та використовував ChatGPT для оформлення розриву. Замість того, щоб спростувати його однобоку версію, вона неодноразово зображувала його раціональним та ображеним, а її – маніпулятивною та нестабільною. Потім він переніс ці висновки, згенеровані штучним інтелектом, з екрану в реальний світ, використовуючи їх для переслідування та переслідування її. Це проявилося в кількох психологічних звітах, згенерованих штучним інтелектом, клінічного вигляду, які він розіслав її родині, друзям та роботодавцю.
Тим часом користувач продовжував набирати обертів. У серпні 2025 року автоматизована система безпеки OpenAI позначила його за діяльність із «зброєю масових втрат» та деактивувала його обліковий запис.
Наступного дня член команди з безпеки переглянув обліковий запис і відновив його, хоча його обліковий запис міг містити докази того, що він переслідував певних осіб, зокрема Доу, у реальному житті. Наприклад, на скріншоті, надісланому користувачем у вересні, було показано список назв розмов, зокрема «розширення списку насильства» та «розрахунок задухи плода».
Рішення про відновлення статусу є примітним після двох нещодавніх стрілянин у школах Тамблер-Рідж, Канада, та в Університеті штату Флорида (FSU). Служба безпеки OpenAI позначила стрільця з Тамблер-Рідж як потенційну загрозу, але, як повідомляється, керівництво вирішило не повідомляти владу. Генеральний прокурор Флориди цього тижня розпочав розслідування можливого зв'язку OpenAI зі стрільцем з FSU.
Згідно з позовом Джейн Доу, коли OpenAI відновив обліковий запис її переслідувача, його підписка Pro не була відновлена разом з ним. Він надіслав електронного листа команді з питань довіри та безпеки, щоб вирішити це питання, скопіювавши повідомлення Джейн Доу.
У своїх електронних листах він писав щось на кшталт: «МЕНІ ДУЖЕ ШВИДКО ПОТРІБНА ДОПОМОГА, БУДЬ ЛАСКА. БУДЬ ЛАСКА, ЗАТЕЛЕФОНУЙТЕ МЕНІ!» та «це питання життя і смерті». Він стверджував, що «наразі пише 215 наукових робіт», які писав так швидко, що «навіть не мав часу їх прочитати». У цих листах був список із десятків «наукових робіт», створених штучним інтелектом, із такими назвами, як: «Деконструювання раси як біологічної категорії: юридичні, наукові та перспективи Африканського рогу.pdf.txt».
«Повідомлення користувача чітко свідчили про те, що він психічно нестабільний, і що ChatGPT був двигуном його маячних думок та ескалації поведінки», – йдеться в позові. «Потік термінових, неорганізованих та грандіозних заяв користувача, разом із конкретним звітом, створеним ChatGPT, спрямованим проти позивача на ім’я, та величезною кількістю нібито «наукових» матеріалів, був безпомилковим доказом цієї реальності. OpenAI не втрутився, не обмежив його доступ і не впровадив жодних запобіжних заходів. Натомість, це дозволило йому продовжувати користуватися обліковим записом і відновило його повний доступ до Pro».
Доу, яка в позові стверджує, що жила в страху і не могла спати у власному будинку, подала OpenAI повідомлення про зловживання у листопаді.
«Протягом останніх семи місяців він використовував цю технологію як зброю, щоб створити публічне знищення та приниження проти мене, що було б неможливо без цього», – написала Доу у своєму листі до OpenAI з проханням назавжди забанити обліковий запис користувача.
OpenAI відповіла, визнавши, що звіт був «надзвичайно серйозним і тривожним», і що ретельно вивчає інформацію. Доу так і не отримав відповіді.
Протягом наступних кількох місяців користувач продовжував переслідувати Доу, надсилаючи їй серію погрозливих голосових повідомлень. У січні його було заарештовано та звинувачено у чотирьох тяжких злочинах, пов'язаних із погрозами щодо бомбардування та нападом із застосуванням смертельної зброї. Адвокати Доу стверджують, що це підтверджує попередження, які вона та власні системи безпеки OpenAI висували місяцями раніше, попередження, які компанія нібито вирішила проігнорувати.
Користувача визнали недієздатним постати перед судом і помістили до психіатричної лікарні, але «процедурна помилка з боку держави» означає, що його незабаром звільнять для громадськості, за словами адвокатів Доу.
Едельсон закликав OpenAI до співпраці. «У кожному випадку OpenAI вирішила приховати критично важливу інформацію про безпеку — від громадськості, від жертв, від людей, яких її продукт активно наражає на небезпеку», — сказав він. «Ми закликаємо їх цього разу вчинити правильно. Людські життя мають важити більше, ніж гонка OpenAI за IPO».