Масове лікування з ШІ: чому світ довіряє здоров’я алгоритмам більше, ніж лікарям
Штучний інтелект дедалі активніше входить у сферу охорони здоров’я — не лише як інструмент для лікарів, а і як порадник для пацієнтів. Щодня понад 40 мільйонів людей у світі звертаються до ChatGPT по медичну інформацію, пише Axios. На тлі перевантажених і непрозорих систем охорони здоров’я, зокрема, у США та Європі, ця тенденція лише посилюється.
Дані OpenAI
Згідно зі звітом OpenAI, розробника ChatGPT, понад 5% усіх повідомлень у ChatGPT у світі стосуються тем охорони здоров’я. Найактивніше до інструментів ШІ звертаються американці, які намагаються орієнтуватися у складній та непрозорій системі охорони здоров’я США. Користувачі використовують чат-бот для розшифрування медичних рахунків, виявлення завищених цін і оскарження відмов страхових компаній.
Згідно з аналізом анонімних взаємодій і опитуванням користувачів, проведеним ШІ-інструментом Knit, пацієнти дедалі частіше сприймають ChatGPT як “союзника” у власному лікуванні. За відсутності доступу до лікарів деякі користувачі вдаються навіть до самодіагностики або управління лікуванням.
OpenAI фіксує від 1,6 до 1,9 мільйона щотижневих запитів щодо медичного страхування. Вони стосуються порівняння страхових планів, обробки заявок, виставлення рахунків і умов покриття.
У малозабезпечених сільських громадах користувачі надсилають майже 600 тисяч медичних повідомлень на тиждень. При цьому сім із десяти таких розмов у світі відбуваються поза звичайними годинами роботи клінік.
Компанія зазначає, що ChatGPT може аналізувати симптоми, попередні рекомендації лікарів і контекст захворювань, попереджаючи про потенційну тяжкість станів. Це допомагає користувачам вирішити, чи варто чекати на плановий прийом, чи звертатися по невідкладну допомогу.
“Надійність підвищується, коли відповіді ґрунтуються на правильному контексті, що стосується конкретного пацієнта”, — пише OpenAI.
Небезпека порад ChatGPT
Водночас ChatGPT може надавати помилкові або потенційно небезпечні поради, особливо у сфері психічного здоров’я. OpenAI стикається з судовими позовами від людей, які стверджують, що їхні близькі зашкодили собі або вчинили самогубство після взаємодії з чат-ботом. Як повідомляє Axios, у відповідь окремі штати США ухвалили закони, що забороняють ШІ надавати терапевтичні поради у сфері ментального здоров’я.
Попри це, вірусні історії демонструють практичну користь ШІ. Користувачі завантажують детальні медичні рахунки для аналізу і виявляють помилки — від дублювання платежів до порушень правил Medicare.
OpenAI повідомляє, що працює над удосконаленням моделей у сфері охорони здоров’я. Компанія тестує підходи до зменшення шкідливих відповідей і співпрацює з клініцистами для виявлення ризиків.
Очікується, що після оновлень моделі GPT-5 частіше ставитимуть уточнювальні запитання, переглядатимуть актуальні дослідження та за потреби скеровуватимуть користувачів до фахівців. Також застосовуватиметься обережніша термінологія з акцентом на ймовірності, а не категоричні висновки.
Источник: zn.ua