Шахраї навчились клонувати голос за допомогою Grok: Кіберполіція дала поради щодо безпеки
Компанія Ілона Маска xAI запускає Custom Voices для свого чат-бота Grok. Тепер штучний інтелект може миттєво клонувати будь-який голос на основі короткого аудіозапису. Це може стати небезпечною зброєю в руках шахраїв. Кіберполіція 4 травня дає поради, як не стати жертвою дипфейків.
Кіберполіція радить ввести наступні заходи безпеки:
- Секретне слово. Домовтеся з близькими про секретне слово, яке знаєте тільки ви. Якщо вам телефонує «син» з проханням терміново переказати гроші - попросіть назвати пароль.
- Контрольні запитання. Якщо голос здається схожим, але ситуація підозріла, запитайте про те, що неможливо знайти в соцмережах (наприклад: якого кольору килимок у нашій ванній кімнаті).
- Запасний канал зв’язку. Отримавши голосове повідомлення або дзвінок - покладіть слухавку і самі передзвоніть цій людині на її звичайний номер.
- Спокій. Шахраї намагаються створити паніку і відчуття терміновості. Тож, видихайте і мисліть критично.
“Подумайте двічі, перш ніж викладати довгі відео чи сторіз зі своїм чистим голосом у відкриті профілі. Це - ідеальний матеріал для навчання нейромереж. Пам'ятайте: Технології розвиваються швидше, ніж ми встигаємо до них звикнути. Ваша пильність - найкращий фільтр проти маніпуляцій”, - пише Кіберполіція.
Источник: informator.ua