Компанія Anthropic стверджує, що зупинила кампанію кібератак, спонсоровану китайською державою
Провідна компанія зі штучного інтелекту стверджує, що зупинила підтримувану Китаєм кампанію «кібершпигунства», яка змогла проникнути у фінансові фірми та урядові установи майже без людського контролю.
Американська компанія Anthropic заявила, що її інструмент кодування Claude Code був «маніпульований» групою, що спонсорується китайською державою, для атаки на 30 об'єктів по всьому світу у вересні, здійснивши «декілька успішних вторгнень».
Це була «значна ескалація» порівняно з попередніми атаками за допомогою штучного інтелекту, які компанія відстежувала, написано в блозі, оскільки Клод діяв значною мірою самостійно: від 80 до 90% операцій, пов’язаних з атакою, виконувалися без участі людини.
«Актор здійснив те, що, на нашу думку, є першим задокументованим випадком кібератаки, здійсненої значною мірою без втручання людини у великому масштабі», – йдеться у повідомленні.
Anthropic не уточнила, які саме фінансові установи та урядові установи стали ціллю атак, або чого саме досягли хакери, хоча й зазначила, що їм вдалося отримати доступ до внутрішніх даних своїх жертв.
У ньому зазначалося, що Клод припустився численних помилок під час здійснення атак, часом вигадуючи факти про свої цілі або стверджуючи, що «відкрив» інформацію, до якої був вільний доступ.
Політики та деякі експерти заявили, що ці висновки є тривожною ознакою того, наскільки зросли можливості певних систем штучного інтелекту: такі інструменти, як Claude, тепер здатні працювати самостійно протягом триваліших періодів часу.
«Прокинься, чорт забирай. Це нас знищить — швидше, ніж ми думаємо — якщо ми не зробимо регулювання штучного інтелекту національним пріоритетом завтра», — написав сенатор США Кріс Мерфі на X у відповідь на висновки.
«Системи штучного інтелекту тепер можуть виконувати завдання, які раніше вимагали кваліфікованих операторів», — сказав Фред Гайдінг, дослідник комп’ютерної безпеки в Гарвардському університеті. «Зловмисникам стає так легко завдати реальної шкоди. Компанії, що займаються штучним інтелектом, не беруть на себе достатньої відповідальності».
Інші експерти з кібербезпеки були більш скептично налаштовані, вказуючи на завищені заяви про кібератаки, що здійснювалися за допомогою штучного інтелекту в останні роки, такі як «зламувач паролів» на базі штучного інтелекту з 2023 року, який працював не краще, ніж звичайні методи, та припускаючи, що Anthropic намагалася створити ажіотаж навколо ШІ.
«Для мене Anthropic — це опис вишуканої автоматизації, нічого більше», — сказав Міхал Возняк, незалежний експерт з кібербезпеки. «Тут залучена генерація коду, але це не «інтелект», це просто пікантне копіювання та вставка».
Возняк сказав, що випуск Anthropic відвертає увагу від більшої проблеми кібербезпеки: компанії та уряди інтегрують «складні, погано вивчені» інструменти штучного інтелекту у свою діяльність, не розуміючи їх, що наражає їх на вразливості. Справжньою загрозою, за його словами, є самі кіберзлочинці – та недбалі методи кібербезпеки.