Лікарі вважають, що ШІ має місце в охороні здоров'я, але не як чат-бот

Дмитро Сизов

Доктор Сіна Барі, практикуючий хірург і керівник відділу штучного інтелекту в галузі охорони здоров'я в компанії з обробки даних iMerit , на власні очі бачила, як ChatGPT може вводити пацієнтів в оману помилковими медичними порадами.

«Нещодавно до мене звернувся пацієнт, і коли я рекомендував ліки, йому роздрукували діалог із ChatGPT, у якому було зазначено, що цей препарат має 45% ймовірність розвитку легеневої емболії», – розповів доктор Барі TechCrunch. 

Коли доктор Барі провів подальше розслідування, він виявив, що статистика взята зі статті про вплив цього препарату на нішеву підгрупу людей з туберкульозом, що не стосувалося його пацієнта. 

І все ж, коли минулого тижня OpenAI анонсувала свого спеціалізованого чат-бота ChatGPT Health , доктор Барі відчув більше захоплення, ніж занепокоєння.

ChatGPT Health, який буде запущено найближчими тижнями, дозволяє користувачам спілкуватися з чат-ботом про своє здоров'я в більш конфіденційній обстановці, де їхні повідомлення не використовуватимуться як навчальні дані для базової моделі штучного інтелекту.

«Я вважаю, що це чудово», – сказав доктор Барі. «Це вже відбувається, тому формалізація цього процесу для захисту інформації пацієнтів та встановлення певних запобіжних заходів […] зробить його ще ефективнішим для пацієнтів».

Користувачі можуть отримувати більш персоналізовані рекомендації від ChatGPT Health, завантажуючи свої медичні записи та синхронізуючи їх з такими додатками, як Apple Health та MyFitnessPal. Для тих, хто дбає про безпеку, це одразу викликає тривогу. 

«Раптом медичні дані почали передаватись від організацій, що відповідають вимогам HIPAA, до постачальників, які його не дотримуються», – сказав TechCrunch Ітай Шварц, співзасновник фірми MIND, що займається запобіганням втратам даних. «Тому мені цікаво подивитися, як до цього підійдуть регуляторні органи».

Але, на думку деяких фахівців галузі, проблема вже вирішена. Тепер, замість того, щоб шукати в Google симптоми застуди, люди спілкуються зі штучним інтелектом-чат-ботами — понад 230 мільйонів людей вже щотижня говорять у ChatGPT про своє здоров'я. 

«Це був один з найбільших випадків використання ChatGPT», – сказав TechCrunch Ендрю Бреккін, партнер Gradient, який інвестує в медичні технології. «Тому цілком логічно, що вони хотіли б створити більш приватну, безпечну та оптимізовану версію ChatGPT для цих питань охорони здоров’я».

Чат-боти зі штучним інтелектом мають постійну проблему з галюцинаціями , що є особливо делікатним питанням в охороні здоров'я. Згідно з моделлю оцінки фактичної узгодженості Vectara , GPT-5 OpenAI більш схильний до галюцинацій, ніж багато моделей Google та Anthropic. Але компанії, що займаються штучним інтелектом, бачать потенціал для виправлення неефективності в галузі охорони здоров'я ( Anthropic також анонсувала продукт для здоров'я цього тижня).

Для доктора Нігама Шаха, професора медицини Стенфордського університету та головного спеціаліста з обробки даних у Stanford Health Care, нездатність американських пацієнтів отримати доступ до медичної допомоги є більш нагальною, ніж загроза того, що ChatGPT надаватиме погані поради.

«Зараз, якщо ви звернетеся до будь-якої системи охорони здоров’я і хочете зустрітися з лікарем первинної медичної допомоги, час очікування становитиме від трьох до шести місяців», – сказав доктор Шах. «Якщо ви оберете: чекати шість місяців на справжнього лікаря чи поговорити з кимось, хто не є лікарем, але може дещо для вас зробити, що б ви обрали?»

Доктор Шах вважає, що чіткіший шлях впровадження штучного інтелекту в системи охорони здоров'я лежить з боку постачальників послуг, а не з боку пацієнта. 

У медичних журналах часто повідомлялося , що адміністративні завдання можуть займати близько половини часу лікаря первинної медичної допомоги, що скорочує кількість пацієнтів, яких він може прийняти протягом дня. Якби таку роботу можна було автоматизувати, лікарі змогли б приймати більше пацієнтів, можливо, зменшивши потребу людей використовувати такі інструменти, як ChatGPT Health, без додаткової участі справжнього лікаря.

Доктор Шах очолює команду в Стенфорді, яка розробляє ChatEHR – програмне забезпечення, вбудоване в систему електронних медичних записів (EHR), що дозволяє клініцистам взаємодіяти з медичними записами пацієнта більш оптимізованим та ефективним способом.

«Зробивши електронну медичну карту зручнішою для користувача, лікарі зможуть витрачати менше часу на пошук необхідної інформації в кожному її закутку», – сказала доктор Снеха Джайн, одна з перших тестувальників ChatEHR, у статті в Stanford Medicine . «ChatEHR може допомогти їм отримати цю інформацію заздалегідь, щоб вони могли приділити час тому, що важливо – спілкуванню з пацієнтами та з’ясуванню того, що відбувається». 

Anthropic також працює над продуктами штучного інтелекту, які можна використовувати як на стороні клініцистів, так і страховиків, а не лише над своїм публічним чат-ботом Claude. Цього тижня Anthropic анонсувала Claude for Healthcare, пояснивши, як його можна використовувати для скорочення часу, витраченого на виснажливі адміністративні завдання, такі як подання запитів на попереднє авторизування страховикам.

«Деякі з вас щотижня стикаються зі сотнями, тисячами таких випадків попереднього дозволу», – сказав Майк Крігер, директор Anthropic CPO, у нещодавній презентації на конференції JP Morgan з питань охорони здоров’я . «Тож уявіть собі, що ви скоротите кожен з них на 20-30 хвилин – це разюча економія часу».

Оскільки штучний інтелект та медицина стають дедалі більш переплетеними, між цими двома світами виникає неминуча напруга — головним стимулом лікаря є допомога пацієнтам, тоді як технологічні компанії зрештою несуть відповідальність перед своїми акціонерами, навіть якщо їхні наміри благородні.

«Я вважаю, що ця напруженість є важливою», — сказав доктор Барі. «Пацієнти покладаються на нас, що ми будемо цинічними та консервативними, щоб захистити їх».