Microsoft спіймала хакерів з Китаю, Росії та Ірану за допомогою своїх інструментів ШІ
Дмитро Сизов
Відповідно до звіту, опублікованого сьогодні, державні хакери з Росії, Китаю та Ірану використовували інструменти OpenAI, що використовує Microsoft, щоб вдосконалювати свої навички та обманювати свої цілі.
У звіті йдеться про те, що вони відстежували хакерські групи, пов’язані з російською військовою розвідкою, Революційною гвардією Ірану та урядами Китаю та Північної Кореї, коли вони намагалися вдосконалити свої хакерські кампанії, використовуючи великі мовні моделі. Ці комп’ютерні програми, які часто називають штучним інтелектом, використовують величезну кількість тексту, щоб генерувати відповіді, що звучать як людина.
Компанія оголосила про знахідку, коли ввела загальну заборону на використання її продуктів ШІ державними хакерськими групами.
«Незалежно від того, чи є порушення закону, чи умов надання послуг, ми просто не хочемо, щоб ті суб’єкти, яких ми ідентифікували – яких ми відстежуємо і знаємо, що є загрозливими суб’єктами різного роду – ми не хочемо, щоб вони мати доступ до цієї технології», – сказав віцепрезидент Microsoft із безпеки клієнтів Том Берт в інтерв’ю Reuters перед публікацією звіту.
Російські, північнокорейські та іранські дипломати не відразу відповіли на повідомлення з проханням прокоментувати звинувачення.
Речник посольства Китаю в США Лю Пенгю заявив, що він виступає проти «безпідставних наклепів і звинувачень на адресу Китаю» і виступає за «безпечне, надійне та контрольоване» розгортання технології ШІ для «підвищення загального добробуту всього людства».
Твердження про те, що державні хакери були спіймані на використанні інструментів штучного інтелекту для посилення своїх шпигунських можливостей, ймовірно, підкреслюють занепокоєння щодо швидкого поширення технології та її потенціалу для зловживань. Високопоставлені чиновники з кібербезпеки на Заході ще з минулого року попереджають, що зловмисники зловживають такими інструментами , хоча до цього моменту на місцях було мало інформації.
«Це один із перших, якщо не перший, випадків, коли компанія штучного інтелекту публічно обговорює, як суб’єкти загроз кібербезпеці використовують технології штучного інтелекту», — сказав Боб Ротстед, керівник відділу аналізу загроз кібербезпеці в OpenAI.
OpenAI і Microsoft назвали використання хакерами своїх інструментів штучного інтелекту «раннім» і «поступовим». Берт сказав, що ніхто не бачив, щоб кібершпигуни робили прориви.
«Ми дійсно бачили, як вони просто використовують цю технологію, як будь-який інший користувач», — сказав він.