Мільйони користувачів ChatGPT опинилися під загрозою витоку особистих даних

Мільйони користувачів ChatGPT опинилися під загрозою витоку особистих даних

Багато користувачів ChatGPT зіткнулися з потенційною загрозою для своїх персональних даних.

Все через суттєвий пролом в безпеці в недавно доданій на платформу функції інтерпретатора коду.

Ця вразливість, вперше виявлена ​​дослідником безпеки Йоханном Ребергером і підтверджена в ході експериментів, дозволяє здійснювати атаки типу prompt injection, які можуть призвести до витоку даних.

Суть проблеми полягає в роботі інтерпретатора коду з файлами серед «пісочниці». Користувачі можуть завантажувати файли для аналізу або створення графіків, але цей процес ненавмисно відкриває двері для зловмисників.

Ввівши запит через сторонню URL-адресу, хакери можуть наказати ChatGPT закодувати завантажені файли в зручний для URL рядок і потім передати ці дані на заздалегідь підготовлений сервер.

Таким чином, зловмисник отримує конфіденційну інформацію, наприклад паролі або API-ключі.