Штучний інтелект та дипфейки допомогають шахраям на сайтах знайомств виманювати гроші

Романов Роман
Штучний інтелект та дипфейки допомогають шахраям на сайтах знайомств виманювати гроші

Людям, які шукають справжні стосунки в Інтернеті, потрібно буде набагато більше розуміти нові технології, які піддають їх шахрайству на сайтах знайомств на «цілком новому рівні ризику», попереджає доцент QUT, дослідник інтернет-шахрайства Кассандра Кросс.

Романтичні шахрайства, які принесли злочинцям 131 мільйон доларів лише в 2020 році, ймовірно, буде важче виявити, оскільки зловмисники переходять на використання штучного інтелекту та технології дипфейк, щоб ошукати своїх жертв.

Завдяки технології deepfake правопорушники можуть не тільки використовувати легкодоступні зображення іншої особи та створювати фальшиве зображення профілю, але вони також можуть створити повністю синтетичне зображення та відповідний профіль, не вилучаючи їх із соціальних мереж іншої особи чи Інтернету.

deep-fake-kopela.jpg.webp (74 KB)

Професор Крос зі Школи юстиції QUT говорить, що громадськість дізналася про любовні шахрайства, і їй порадили використовувати такі методи виявлення, як зворотний пошук зображень з надісланих їм світлин, щоб визначити, чи є відправник тим, за кого він чи вона себе видає.

«Це означає, що кампанії із запобігання шахрайству потрібно буде провести роз’яснювальну роботу, щоб люди дізналися про цей складний і важко виявлений метод обману», – сказав професор Крос.

«Штучний інтелект та deepfakes роблять зворотний пошук зображень фактично застарілим. Існує критична потреба покращити технологічну реакцію на ШІ та потенціал шахрайства, який може виникнути у дипфейках, оскільки існують обмежені засоби виявлення обману».

Професор Крос також заначає, що багато ЗМІ вже задокументували використання штучного інтелекту та дипфейків для обману жертв любовних шахрайств.

«Наприклад, американська жінка надіслала кілька грошових траншів чоловікові, який, як вона вважала, був чиновником ВМС США. У цьому випадку злочинець маніпулював загальнодоступними зображеннями та записами офіцера ВМС США, щоб створити глибокі фейкові відео про справжню людину», - повідомляє експерт.

Поряд з тим, що правопорушники можуть створювати зображення живих людей та створювати реалістичні профілі, програмне забезпечення для глибоких фейків може створити цілком правдоподібні, але фіктивні зображення та профіль.

Здатність технології створювати унікальні зображення для використання в профілях у соціальних мережах може змінити те, як здійснюються любовні шахрайства та інші оманливі дії в Інтернеті (наприклад, фішінг).

Професор Крос додає, що дипфейки розвинулися, щоб охопити голосові записи, і були потужним інструментом, коли використовувалися з іншими видами шахрайства.

«Наприклад, у шахрайстві з компрометацією ділової електронної пошти (BEC) правопорушники можуть використовувати підроблені аудіозаписи, щоб видавати себе за генеральних директорів та інших авторитетних осіб, а також націлюватися на співробітників нижчого рівня з терміновими запитами на переказ коштів від їхнього імені.

«Очевидно, що профілактичні повідомлення мають бути націлені на людей, які використовують платформи для знайомств і соціальні медіа, щоб налагодити стосунки та принаймні попередити громадськість про ризики, які представляють штучний інтелект та дипфейки в цих сферах соціального життя».

За матеріалами: Techxplore