Мільйони користувачів ChatGPT опинилися під загрозою витоку особистих даних
Багато користувачів ChatGPT зіткнулися з потенційною загрозою для своїх персональних даних.
Все через суттєвий пролом в безпеці в недавно доданій на платформу функції інтерпретатора коду.
Ця вразливість, вперше виявлена дослідником безпеки Йоханном Ребергером і підтверджена в ході експериментів, дозволяє здійснювати атаки типу prompt injection, які можуть призвести до витоку даних.
Суть проблеми полягає в роботі інтерпретатора коду з файлами серед «пісочниці». Користувачі можуть завантажувати файли для аналізу або створення графіків, але цей процес ненавмисно відкриває двері для зловмисників.
Ввівши запит через сторонню URL-адресу, хакери можуть наказати ChatGPT закодувати завантажені файли в зручний для URL рядок і потім передати ці дані на заздалегідь підготовлений сервер.
Таким чином, зловмисник отримує конфіденційну інформацію, наприклад паролі або API-ключі.