Anthropic звинувачує китайські лабораторії штучного інтелекту у крадіжці інформації з Клода

Дмитро Сизов
Anthropic звинувачує китайські лабораторії штучного інтелекту у крадіжці інформації з Клода

Anthropic звинувачує три китайські компанії зі штучного інтелекту у створенні понад 24 000 фальшивих облікових записів за допомогою моделі штучного інтелекту Claude для покращення власних моделей.

Лабораторії — DeepSeek , Moonshot AI та MiniMax — нібито здійснили понад 16 мільйонів обмінів з Клодом через ці облікові записи, використовуючи техніку під назвою «дистиляція». Anthropic заявила, що лабораторії «орієнтувалися на найрізноманітніші здібності Клода: агентивне мислення, використання інструментів та кодування».

Ці звинувачення пролунали на тлі дебатів щодо того, як суворо запроваджувати експортний контроль над передовими чіпами штучного інтелекту, що має на меті стримувати розвиток штучного інтелекту в Китаї. 

Дистиляція – це поширений метод навчання, який лабораторії штучного інтелекту використовують на власних моделях для створення менших і дешевших версій, але конкуренти можуть використовувати його, по суті, для копіювання домашнього завдання інших лабораторій. OpenAI надіслав доповідну записку законодавцям Палати представників на початку цього місяця, звинувативши DeepSeek у використанні дистиляції для імітації своїх продуктів. 

DeepSeek вперше наробила галасу рік тому, коли випустила свою модель міркувань R1 з відкритим кодом, яка майже зрівнялася з американськими передовими лабораторіями за продуктивністю за значно меншою ціною. Очікується, що DeepSeek незабаром випустить DeepSeek V4, свою останню модель, яка, як повідомляється, може перевершити Claude від Anthropic та ChatGPT від OpenAI за продуктивністю кодування.

Масштаб кожної атаки відрізнявся. Anthropic відстежив понад 150 000 обмінів від DeepSeek, які, здавалося, були спрямовані на покращення базової логіки та узгодженості, зокрема, щодо безпечних для цензури альтернатив запитам, чутливим до політики. 

Moonshot AI здійснила понад 3,4 мільйона обмінів, спрямованих на агентне мислення та використання інструментів, кодування та аналіз даних, розробку агентів для використання комп'ютера та комп'ютерний зір. Минулого місяця компанія випустила нову модель з відкритим кодом Kimi K2.5 та агента кодування.

13 мільйонів обмінів MiniMax були спрямовані на агентне кодування, використання інструментів та оркестрацію. Anthropic заявила, що змогла спостерігати MiniMax у дії, оскільки компанія перенаправила майже половину свого трафіку на можливості перекачування з останньої моделі Claude під час її запуску. 

Anthropic заявляє, що продовжуватиме інвестувати в захист, який ускладнює виконання атак дистиляції та спрощує їх виявлення, але закликає до «скоординованої відповіді в галузі штучного інтелекту, постачальників хмарних послуг та політиків».  

Атаки на дистиляцію відбуваються в той час, коли експорт американських мікросхем до Китаю все ще є предметом гарячих дискусій. Минулого місяця адміністрація Трампа офіційно дозволила американським компаніям, таким як Nvidia, експортувати передові мікросхеми штучного інтелекту (такі як H200) до Китаю. Критики стверджують, що це послаблення експортного контролю збільшує обчислювальні потужності Китаю в галузі штучного інтелекту в критичний момент глобальної гонки за домінування в цій галузі.

Anthropic стверджує, що масштаб видобутку, який виконали DeepSeek, MiniMax та Moonshot, «вимагає доступу до передових чіпів».

«Таким чином, атаки на дистиляцію підсилюють обґрунтування експортного контролю: обмежений доступ до чіпів обмежує як пряме навчання моделей, так і масштаби незаконної дистиляції», – йдеться в блозі Anthropic. 

Дмитро Альперович , голова аналітичного центру Silverado Policy Accelerator та співзасновник CrowdStrike, розповів TechCrunch, що його не здивували ці атаки.

«Вже деякий час зрозуміло, що однією з причин швидкого прогресу китайських моделей штучного інтелекту була крадіжка шляхом дистиляції моделей американського пограничного розвитку. Тепер ми знаємо це достеменно», – сказав Альперович. «Це має дати нам ще більше переконливих причин відмовитися продавати будь-які чипи штучного інтелекту будь-якій із цих [компаній] , що лише надасть їм додаткові переваги».

Anthropic також зазначив, що дистиляція не лише загрожує підірвати домінування Америки у сфері штучного інтелекту, але й може створювати ризики для національної безпеки.

«Anthropic та інші американські компанії створюють системи, які запобігають використанню ШІ державними та недержавними суб’єктами, наприклад, для розробки біологічної зброї або здійснення зловмисної кібердіяльності», – йдеться в блозі Anthropic. «Моделі, побудовані шляхом незаконної дистиляції, навряд чи збережуть ці запобіжні заходи, а це означає, що небезпечні можливості можуть поширюватися, навіть якщо багато захистів будуть повністю позбавлені».

Anthropic вказав на авторитарні уряди, які використовують штучний інтелект на межі кордонів для таких речей, як «наступальні кібероперації, дезінформаційні кампанії та масове спостереження», ризик якого множиться, якщо ці моделі мають відкритий вихідний код.