Штучний інтелект допомагає розкривати анонімні акаунти в соцмережах

Штучний інтелект допомагає розкривати анонімні акаунти в соцмережах

Мовні моделі можуть зіставляти пости анонімних користувачів із їхніми профілями на інших платформах.

Нові дослідження показують, що великі мовні моделі, які лежать в основі сучасних систем штучного інтелекту, можуть допомагати розкривати особи анонімних користувачів у соціальних мережах. У багатьох тестових сценаріях такі системи змогли зіставити анонімні профілі з реальними людьми на інших платформах. Вчені попереджають, що це може значно спростити атаки на конфіденційність, передає The Guardian

Дослідження провели фахівці зі штучного інтелекту Саймон Лермен та Деніел Палека. Вони дійшли висновку, що великі мовні моделі роблять економічно вигідним проведення складних атак на приватність і змушують до “фундаментальної переоцінки того, що можна вважати приватним в Інтернеті”.

Під час експерименту дослідники вводили до системи дані анонімних акаунтів і дозволяли штучному інтелекту збирати доступну про них інформацію. Як приклад вони описали гіпотетичного користувача, який у постах згадує проблеми в школі та вигулює собаку на ім’я Бісквіт у парку Долорес. 

Після цього система шукала ці деталі на інших ресурсах і зіставляла анонімний профіль із реальною особою. У наведеному прикладі штучний інтелект з високою точністю ідентифікував анонімний акаунт @anon_user42.

Таким чином уряди можуть застосовувати ШІ для спостереження за анонімними активістами або дисидентами. Водночас кіберзлочинці за допомогою такого методу можуть створювати “високо персоналізовані” шахрайські схеми.

Експерти зазначають, що спостереження за допомогою ШІ швидко розвивається і вже викликає занепокоєння серед фахівців із кібербезпеки. Великі мовні моделі здатні синтезувати інформацію про людину з різних джерел в інтернеті — те, що раніше було практично неможливо виконати вручну.

За словами Лермена, дані, які користувачі добровільно публікують онлайн, можуть бути “безперешкодно використані” для шахрайства. Йдеться, зокрема, про фішингові атаки, коли зловмисники видають себе за знайомих людей, щоб змусити жертву перейти за шкідливим посиланням.

Ще одну проблему відзначив професор кібербезпеки Единбурзького університету Марк Хуарес. За його словами, мовні моделі здатні аналізувати не лише соціальні мережі, а й інші відкриті дані, зокрема медичні записи чи статистичні бази, які можуть бути недостатньо анонімізовані.

“Це досить тривожно. Я думаю, що це дослідження показує, що ми повинні переглянути нашу практику”, — зазначив Хуарес.

Водночас дослідники наголошують, що штучний інтелект не є універсальним інструментом для розкриття анонімності. У багатьох випадках інформації недостатньо, щоб зробити точний висновок, або існує занадто багато потенційних збігів.

“Вони можуть зв’язуватися лише між платформами, де хтось послідовно ділиться одними і тими ж бітами інформації в обох місцях”, — пояснив професор Каліфорнійського університету в Берклі Марті Херст.

Науковці закликають організації та користувачів переглянути підходи до захисту даних. Серед можливих кроків — обмеження масового збору інформації, контроль вебскрапінгу та зменшення обсягів відкритого експорту даних із платформ.

Источник: zn.ua