Штучний інтелект підробляє голос ваших родичів і допомогає видурювати гроші

Дмитро Сизов
Штучний інтелект підробляє голос ваших родичів і допомогає видурювати гроші

Чоловік, який кликав Рут Кард, звучав так само як її онук Брендон. Тож коли він сказав, що перебуває у в’язниці, без гаманця та мобільного телефону, і йому потрібні гроші під заставу, Кард з усіх сил намагалася допомогти.

«Це точно було відчуття... страху», - сказала вона. «Що ми повинні допомогти йому прямо зараз».

73-річна Кард та її чоловік, 75-річний Грег Грейс, кинулися до свого банку в Реджайні, Саскачеван, і зняли 3000 канадських доларів (2207 доларів у валюті США), максимальну суму за день. Вони поспішили в друге відділення по гроші. Але менеджер банку затягнув їх до свого офісу: інший клієнт отримав подібний дзвінок і дізнався, що моторошно точний голос був підробленим, згадує Кард, сказав банкір. Чоловік по телефону, ймовірно, не був їхнім онуком.

Тоді вони зрозуміли, що їх обдурили.

«Нас затягнуло», — сказав Кард в інтерв’ю The Washington Post. «Ми були переконані, що розмовляємо з Брендоном».

У міру того, як у Сполучених Штатах зростає кількість випадків шахрайства з видаванням себе за іншу особу, випробування Карда свідчать про тривожну тенденцію. Технологія полегшує та здешевлює поганим акторам імітувати голоси , переконуючи людей, часто літніх, що їхні близькі в біді. У 2022 році шахрайство із самозванцями було другим за популярністю рекетом в Америці, згідно з даними Федеральної торгової комісії, було надіслано понад 36 000 повідомлень про те, що люди були ошукані тими, хто прикидався друзями та родиною . Понад 5100 із цих інцидентів сталися по телефону, що становить понад 11 мільйонів доларів збитків, повідомили представники FTC.

Удосконалення штучного інтелекту додали жахливий новий рівень, дозволяючи поганим акторам відтворювати голос лише за допомогою звукового фрагменту з кількох речень. Завдяки штучному інтелекту цілий ряд дешевих онлайн-інструментів може перетворити аудіофайл на копію голосу, дозволяючи шахраям змусити його «говорити» те, що вони вводять.

Експерти кажуть, що федеральні регулюючі органи, правоохоронні органи та суди погано підготовлені для того, щоб приборкати шахрайство, що зростає. Більшість жертв мають мало підказок, щоб ідентифікувати злочинця, і поліції важко відстежити дзвінки та кошти шахраїв, які діють по всьому світу. І є мало правових прецедентів для судів, щоб притягувати компанії, які створюють інструменти, до відповідальності за їх використання.

«Це жахливо», — сказав Хані Фарід, професор цифрової криміналістики Каліфорнійського університету в Берклі. «Це начебто ідеальний шторм… [з] усіма інгредієнтами, які потрібні для створення хаосу».

Хоча шахрайство із самозванцями має багато форм, вони, по суті, працюють однаково: шахрай видає себе за людину, яка заслуговує на довіру — дитину, коханця чи друга — і переконує жертву надіслати їй гроші, оскільки вона в біді.

Рут Кард із Регіни, Саскачеван, ледь не стала жертвою шахрайства, коли хтось видавався за її онука. «Нас затягнуло», — каже вона. «Ми були переконані, що розмовляємо з Брендоном». (Kayle Neis/Regina Leader-Post/Postmedia)

Але штучно створена голосова технологія робить цю хитрість переконливішою. Жертви повідомляють, що реагують із внутрішнім жахом, коли чують, що їхні близькі знаходяться в небезпеці.

Це темний вплив нещодавнього зростання генеративного штучного інтелекту, який підтримує програмне забезпечення, яке створює тексти, зображення чи звуки на основі даних, які воно подає. Досягнення в математиці та обчислювальній потужності покращили механізми навчання для такого програмного забезпечення, що спонукало цілу групу компаній до випуску чат-ботів , засобів для створення зображень і озвучування, які дивно схожі на життя .

Програмне забезпечення для створення голосу штучного інтелекту аналізує те, що робить голос людини унікальним, включаючи вік, стать і акцент, і здійснює пошук у величезній базі даних голосів, щоб знайти схожі та передбачити шаблони, сказав Фарід.

Потім він може відтворити висоту, тембр і окремі звуки голосу людини, щоб створити загальний схожий ефект, додав він. Для цього потрібен короткий зразок аудіо, взятий із таких місць, як YouTube, подкасти, рекламні ролики, відео TikTok, Instagram або Facebook, сказав Фарід.

«Два роки тому, навіть рік тому, вам потрібно було багато аудіо, щоб клонувати голос людини», — сказав Фарід. «Тепер … якщо у вас є сторінка у Facebook … або якщо ви записали TikTok і ваш голос залишається там протягом 30 секунд, люди можуть клонувати ваш голос».

Такі компанії, як ElevenLabs, заснований у 2022 році стартап із штучного інтелекту, який синтезує голос, перетворює короткий зразок вокалу на синтетично згенерований голос за допомогою інструменту перетворення тексту в мовлення. Відповідно до сайту, програмне забезпечення ElevenLabs може бути безплатним або коштувати від 5 до 330 доларів на місяць, а вищі ціни дозволяють користувачам створювати більше аудіо.

ElevenLabs потрапила в новини після критики свого інструменту, який використовувався для копіювання голосів знаменитостей, які говорили те, чого вони ніколи не робили, наприклад Емма Вотсон, яка фальшиво декламувала уривки з «Моєї боротьби» Адольфа Гітлера. ElevenLabs не відповіла на запит про коментарі, але в ланцюжку Twitter компанія повідомила, що впроваджує заходи безпеки для запобігання зловживанням, включаючи заборону безкоштовним користувачам створювати власні голоси та запуск інструменту для виявлення аудіо, згенерованого ШІ.

Але такі гарантії надто пізні для таких жертв, як Бенджамін Перкін, чиї літні батьки втратили тисячі доларів через голосове шахрайство.

Його кошмар із клонуванням голосу почався, коли його батькам зателефонував нібито адвокат і сказав, що їхній син убив американського дипломата в автокатастрофі. Перкін був у в'язниці, і йому потрібні були гроші на судові витрати.

Адвокат зателефонував 39-річному Перкіну, який сказав, що любить їх, цінує і потребує грошей. Через кілька годин адвокат знову зателефонував батькам Перкіна, сказавши, що їхньому синові потрібна 21 000 доларів (15 449 доларів) до дати суду того ж дня.

Батьки Перкіна пізніше сказали йому, що дзвінок здався йому незвичайним, але вони не могли позбутися відчуття, що вони справді розмовляли зі своїм сином.

Голос прозвучав «досить близько, щоб мої батьки справді повірили, що вони розмовляли зі мною», – сказав він. У стані паніки вони кинулися до кількох банків, щоб отримати готівку, і відправили юристу гроші через біткойн-термінал.

Коли того вечора справжній Перкін зателефонував своїм батькам для випадкової реєстрації, вони були збентежені.

Незрозуміло, звідки шахраї взяли його голос, хоча Перкін опублікував на YouTube відео, в яких розповідається про його захоплення снігоходами. За словами Перкіна, родина подала заяву до федеральних органів влади Канади, але це не повернуло гроші.

«Гроші пішли», — сказав він. «Страховки немає. Його вже не повернути. Це пішло."

Вілл Максон, помічник директора відділу маркетингових практик FTC, сказав, що відстежити голосових шахраїв може бути «особливо складно», оскільки вони можуть використовувати телефон у будь-якій точці світу, тому важко навіть визначити, яке агентство має юрисдикцію над окремий випадок.

Максон закликав до постійної пильності. Якщо кохана людина каже вам, що їй потрібні гроші, покладіть цей дзвінок на утримання та спробуйте зателефонувати члену вашої родини окремо, сказав він. Якщо підозрілий дзвінок надходить з номера члена сім’ї, знайте, що це також може бути підроблено. Ніколи не платіть людям подарунковими картками, тому що їх важко відстежити, додав він, і будьте обережні з будь-якими запитами готівки.

Єва Веласкес, виконавчий директор Ресурсного центру крадіжки особистих даних, сказала, що правоохоронним органам важко вистежити злодіїв, які клонують голос. Веласкес, який провів 21 рік в офісі окружного прокурора Сан-Дієго, розслідуючи шахрайство споживачів, сказав, що поліцейські департаменти можуть не мати достатньо грошей і персоналу для фінансування підрозділу, який займається відстеженням шахрайства.

За її словами, більшим департаментам доводиться розподіляти ресурси на справи, які можна розкрити. Жертви голосового шахрайства можуть не мати багато інформації, щоб надати поліції для розслідування, тому чиновникам буде важко приділяти багато часу чи сил, особливо для менших втрат.

«Якщо у вас немає жодної інформації про це», — сказала вона. «З чого вони починаються?»

Фарід сказав, що суди повинні притягувати компанії штучного інтелекту до відповідальності, якщо їхня продукція завдає шкоди. Юристи, такі як суддя Верховного суду Ніл М. Горсач, у лютому заявили, що правовий захист, який захищає соціальні мережі від судових позовів, може не застосовуватися до робіт, створених ШІ.

Для Кард цей досвід зробив її більш пильною. Минулого року вона розмовляла зі своєю місцевою газетою Regina Leader-Post , щоб попередити людей про ці шахрайства. Оскільки вона не втратила грошей, вона не заявила про це в поліцію.

Понад усе, за її словами, вона почувається збентеженою.

«Це була не дуже переконлива історія», — сказала вона. «Але це не повинно було бути краще, ніж те, що було, щоб переконати нас».