Чому варто уникати у спілкуванні з чат-ботами ШІ теми вашого здоров'я

Дмитро Сизов
Чому варто уникати у спілкуванні з чат-ботами ШІ теми вашого здоров'я

З тих пір, як OpenAI, Microsoft і Google представили чат-ботів зі штучним інтелектом, мільйони людей експериментували з новим способом пошуку в Інтернеті: ведучи розмову вперед-назад за допомогою моделі, яка повторює знання з Інтернету. 

Враховуючи нашу тенденцію звертатися до Google або WebMD із запитаннями про наше здоров’я, ми неминуче задамо ChatGPT, Bing і Bard також. Але ці інструменти повторюють деякі знайомі помилки конфіденційності, кажуть експерти, а також створюють нові.

Ось що потрібно знати, перш ніж повідомляти чат-боту зі штучним інтелектом свою конфіденційну інформацію про здоров’я чи будь-які інші секрети.

Чи зберігають боти ШІ мої чати?

Так. ChatGPT, Bing і Bard зберігають те, що ви вводите. Google Bard, який тестує обмежену кількість користувачів, має налаштування, за допомогою яких ви можете повідомити компанії припинити збереження ваших запитів і пов’язувати їх із вашим обліковим записом Google. Перейдіть до панелі меню вгорі ліворуч і вимкніть «Діяльність барда». OpenAI також дозволяє обмежити тривалість збереження історії чатів. Перейдіть до налаштувань і вимкніть «Історію чатів і навчання», і компанія каже, що зберігатиме ваші чати лише протягом 30 днів і не використовуватиме їх для навчання ШІ.

Для чого ці компанії використовують мої чати?

Ці компанії використовують ваші запитання та відповіді, щоб навчити моделі ШІ надавати кращі відповіді. Але їх використання для ваших чатів не завжди закінчується. Google і Microsoft, які в лютому запустили версію чат-бота AI для своєї пошукової системи Bing, залишають у своїх політиках конфіденційності місце для використання ваших журналів чатів для реклами. Це означає, що якщо ви введете запитання про ортопедичне взуття, є шанс, що пізніше ви побачите рекламу про це.

«Споживачі повинні ставитися до цих інструментів принаймні з підозрою, оскільки, як і багато інших популярних технологій, усі вони знаходяться під впливом сил реклами та маркетингу», — сказав Джеффрі Честер, виконавчий директор групи захисту цифрових прав Center for Digital Democracy.

Це може вас не турбувати. Але щоразу, коли проблеми зі здоров’ям і цифрова реклама перетинаються, є потенціал для шкоди. Звіти Washington Post показали, що деякі перевірячі симптомів, включаючи WebMD і Drugs.com, поділилися потенційно чутливими проблемами зі здоров’ям, такими як депресія чи ВІЛ, разом із ідентифікаторами користувачів стороннім рекламним компаніям. Тим часом брокери даних продають величезні списки людей та їхні проблеми зі здоров’ям покупцям, серед яких можуть бути уряди чи страхові компанії. А деякі хронічно хворі люди повідомляють, що в Інтернеті за ними слідує тривожна цільова реклама.

Тож обсяг інформації про здоров’я, яку ви надаєте Google або Microsoft, має залежати від того, наскільки ви довіряєте компанії охороняти ваші дані та уникати хижацької реклами.

OpenAI, який створює ChatGPT, каже, що зберігає ваші пошукові запити лише для навчання та вдосконалення своїх моделей. Він не використовує взаємодію чат-ботів для створення профілів користувачів або реклами, сказала речниця OpenAI, хоча вона не відповіла на запитання, чи буде компанія робити це в майбутньому.

Деякі люди можуть не захотіти, щоб їхні дані використовувалися для навчання штучному інтелекту, незалежно від позиції компанії щодо реклами, сказав Рорі Мір, заступник директора з організації спільноти в Electronic Frontier Foundation, некомерційній групі захисту прав конфіденційності.

«У якийсь момент дані, які вони зберігають, можуть перейти до іншої компанії, якій ви не дуже довіряєте, або опинитися в руках уряду, якому ви не дуже довіряєте», — сказав він.

Хтось дивиться на мої чати?

У деяких випадках спеціалісти перевіряють відповіді чат-бота. Це означає, що вони також побачать ваші запитання. Google, наприклад, зберігає деякі розмови для перегляду та анотації, зберігаючи їх до чотирьох років. Рецензенти не бачать ваш обліковий запис Google, але компанія попереджає користувачів Bard уникати розголошення будь-якої особистої інформації в чатах. Це включає ваше ім’я та адресу, а також деталі, які можуть ідентифікувати вас чи інших людей, яких ви згадуєте.

Як довго зберігаються мої чати?

Компанії, які збирають наші дані та зберігають їх протягом тривалого часу, створюють ризики для конфіденційності та безпеки — компанії можуть бути зламані або поділитися даними з ненадійними діловими партнерами, сказав Світ.

У політиці конфіденційності OpenAI сказано, що компанія зберігає ваші дані «лише стільки часу, скільки нам потрібно для надання вам наших послуг або для інших законних бізнес-цілей». Це може тривати нескінченно довго, і прес-секретар відмовилася уточнити. Google і Microsoft можуть зберігати ваші дані, доки ви не попросите їх видалити. (Щоб дізнатися, як це зробити, перегляньте наші посібники з конфіденційності .)

Чи можу я довіряти інформації про здоров’я, яку надають боти?

Інтернет — це мішок інформації про здоров’я — деяка корисна, інша — не дуже — і великі мовні моделі, такі як ChatGPT, можуть працювати краще, ніж звичайні пошукові системи, уникаючи сміття, — сказав Тінлонг Дай, професор управління операціями та бізнес-аналітики. в Університеті Джона Гопкінса, який вивчає вплив ШІ на охорону здоров’я.

Наприклад, Дай сказав, що ChatGPT, ймовірно, виконає краще завдання, ніж Google Scholar, допомагаючи комусь знайти дослідження щодо їхніх конкретних симптомів чи ситуації. У своєму дослідженні Дай вивчає рідкісні випадки, коли чат-боти правильно діагностують хворобу, яку лікарі не змогли помітити.

Але це не означає, що ми повинні покладатися на чат-ботів для надання точних рекомендацій щодо здоров’я, зазначив він. Доведено, що ці моделі вигадують інформацію та подають її як факт, а їхні неправильні відповіді можуть бути надзвичайно правдоподібними, сказав Дай. Вони також беруть із сумнівних джерел або не цитують. (Коли я запитав Барда, чому я відчуваю втому, він надав список можливих відповідей і процитував веб-сайт про темпераменти крихітних собак ши-тцу. Ой.) Поєднайте все це з людською схильністю надто довіряти рекомендаціям . від чат-бота, який звучить упевнено, і у вас проблеми.

«Ця технологія вже дуже вражає, але зараз вона схожа на дитину чи, можливо, на підлітка», — сказав Дай. «Зараз люди просто тестують це, але коли вони починають покладатися на це, саме тоді це стає справді небезпечним».

Який безпечний спосіб пошуку інформації про здоров’я?

Через обмежений доступ до медичної допомоги або непомірно високу вартість не кожен може відвідати лікаря в погану погоду. Якщо ви не хочете, щоб ваші проблеми зі здоров’ям лежали на серверах компанії або ставали кормом для реклами, використовуйте веб-переглядач, який захищає конфіденційність, наприклад DuckDuckGo або Brave.

Перш ніж зареєструватися в будь-якій службі охорони здоров’я на основі чату штучного інтелекту (наприклад, терапевтичний бот ), ознайомтеся з обмеженнями технології та перевірте політику конфіденційності компанії , щоб дізнатися, чи використовує вона дані для «покращення своїх послуг» чи ділиться даними з неназваними «постачальниками». » або «ділові партнери». Обидва часто є евфемізмами для позначення реклами.