Співробітники Microsoft читають дописи чат-ботів користувачів

Дмитро Сизов
Співробітники Microsoft читають дописи чат-ботів користувачів

Співробітники Microsoft читають розмови користувачів за допомогою свого чат-бота Bing , повідомила компанія, на тлі зростаючої стурбованості щодо захисту даних щодо використання систем.

У компанії заявили, що рецензенти відстежують те, що користувачі надсилають чат-боту, щоб реагувати на «неналежну поведінку».

Роботодавці, зокрема JP Morgan і Amazon, заборонили або обмежили використання ChatGPT , який використовує подібну технологію, через побоювання, що конфіденційна інформація може надходити в бот.

Чат Bing одразу став сенсацією після того, як Microsoft випустила його у світ на початку цього місяця, пообіцявши порушити контроль Google над пошуком за допомогою свого бота зі штучним інтелектом.

Однак останніми днями він обмежив цю послугу після того, як тестери повідомили про дивні взаємодії, наприклад, коли бот заявляв про свою любов до людей і зізнався у насильницьких фантазіях.

Microsoft заявила, що дані Bing захищені видаленням особистої інформації з них і що лише певні співробітники можуть отримати доступ до чатів.

Минулого тижня компанія оновила свою політику конфіденційності, заявивши, що може збирати та перевіряти взаємодію користувачів із чат-ботами.

Amazon, Google і Apple викликали критику кілька років тому, коли з’ясувалося, що підрядники переглядали голосові записи розумних помічників компаній, підслуховували медичні дані або злочинну поведінку.

Тепер компанії дозволяють користувачам відмовлятися від надсилання аудіокомпаніям.

Людиноподібні відповіді Bing на запитання означають, що деякі користувачі можуть вводити приватні чи інтимні повідомлення в бота.

«Щоб ефективно реагувати на невідповідну поведінку та відстежувати її, ми використовуємо як автоматичні, так і ручні перевірки підказок, які надсилаються Bing», — сказав представник Microsoft. 

«Це звичайна практика пошуку, про що йдеться в заяві про конфіденційність Microsoft. 

«Microsoft прагне захищати конфіденційність користувачів, а дані захищаються за допомогою узгоджених галузевих практик, включаючи псевдонімізацію, шифрування в стані спокою, захищене та затверджене керування доступом до даних і процедури збереження даних. 

«У всіх випадках доступ до даних користувача надається лише працівникам Microsoft із підтвердженою бізнес-потребою, а не стороннім особам».

Минулого тижня Microsoft додала дві примітки до своєї заяви про конфіденційність, щоб уточнити, що дані, створені ботами, збираються та можуть оброблятися людьми.

Експерти з безпеки даних висловили занепокоєння щодо того, що відбувається з інформацією, яка передається в онлайн-чат-боти. 

Bing тепер вимикає чати після надто великої кількості підказок і відмовляється відповідати на запитання про свої почуття після того, як перші тестувальники виявили, що він дає безглузді відповіді на певні запитання або після довгих розмов.

Багато компаній обмежили ChatGPT, створений стартапом OpenAI із Кремнієвої долини, або порадили своїм співробітникам не вводити в нього конфіденційну інформацію. На веб-сайті OpenAI сказано, що компанія переглядає розмови з чат-ботом.