OpenAI стверджує, що DeepSeek, використовуючи дистильовані американські моделі, отримує перевагу

Дмитро Сизов
OpenAI стверджує, що DeepSeek, використовуючи дистильовані американські моделі, отримує перевагу

Згідно з меморандумом, з яким ознайомилося Bloomberg News, OpenAI попередив американських законодавців, що його китайський конкурент DeepSeek використовує несправедливі та дедалі складніші методи для отримання результатів з провідних американських моделей штучного інтелекту для навчання наступного покоління свого революційного чат-бота R1.

У службовій записці , надісланій у четвер до Спеціального комітету Палати представників з питань Китаю, OpenAI заявила, що DeepSeek використовувала так звані методи дистиляції в рамках «постійних зусиль щодо незаконного використання можливостей, розроблених OpenAI та іншими передовими лабораторіями США». Компанія заявила, що виявила «нові, заплутані методи», розроблені для обходу захисту OpenAI від неправомірного використання результатів її моделей.

Як раніше повідомляло видання Bloomberg , OpenAI почала приватно висловлювати занепокоєння щодо цієї практики невдовзі після випуску моделі R1 минулого року, коли розпочала розслідування з партнером Microsoft Corp. щодо того, чи DeepSeek отримав її дані несанкціонованим чином . У процесі навчання одна модель штучного інтелекту спирається на результати іншої, щоб розвивати аналогічні можливості.

Дистиляція, значною мірою пов'язана з Китаєм та інколи з Росією, зберігається та стає більш складною, незважаючи на спроби придушити користувачів, які порушують умови надання послуг OpenAI, йдеться у звіті компанії, посилаючись на активність, яку вона спостерігала на своїй платформі.

Оскільки DeepSeek та багато інших китайських моделей не мають щомісячної підписки, поширеність дистиляції може становити бізнес-загрозу для американських компаній, таких як OpenAI та Anthropic PBC , які інвестували мільярди доларів в інфраструктуру штучного інтелекту та стягують плату за свої преміум-послуги. Такий дисбаланс ризикує підірвати перевагу США над Китаєм у сфері штучного інтелекту.

OpenAI також звернув увагу на інші ризики національної безпеки, спричинені успіхами DeepSeek, зокрема на те, що його чат-бот цензурував результати з тем, які китайський уряд вважає суперечливими, таких як Тайвань та площа Тяньаньмень. За словами OpenAI, коли можливості копіюються шляхом дистиляції, запобіжні заходи часто ігноруються, що призводить до більш широкого зловживання моделями ШІ у високоризикових галузях, таких як біологія чи хімія.

Ілюстрації штучного інтелекту OpenAI, DeepSeek та ChatGPT
Програми штучного інтелекту DeepSeek та OpenAI, розміщені на мобільних телефонах. Фотограф: Андрій Рудаков/Bloomberg

Конгресмен Джон Муленар , голова комітету Палати представників з питань Китаю від Республіканської партії, у четвер заявив: «Це частина політики КПК: красти, копіювати та знищувати», маючи на увазі Комуністичну партію Китаю. «Китайські компанії продовжуватимуть використовувати американські моделі штучного інтелекту на свою користь, так само, як коли вони фрікували OpenAI для створення DeepSeek».

OpenAI відмовилася коментувати цей меморандум. Речники китайського посольства у Вашингтоні та DeepSeek не одразу відповіли на запити про коментарі.

У службовій записці OpenAI до комітету Палати представників з питань Китаю йдеться про те, що її зусилля щодо блокування дистиляції не змогли усунути проблему. Компанія заявила, що внутрішня перевірка показує, що облікові записи, пов'язані зі співробітниками DeepSeek, намагалися обійти існуючі бар'єри, отримуючи доступ до моделей через сторонні маршрутизатори, щоб замаскувати їхнє джерело.

Співробітники DeepSeek також розробили код для доступу до моделей штучного інтелекту США та отримання результатів «програмними способами», заявили в OpenAI. Також вказуються мережі «неавторизованих реселерів послуг OpenAI», також розроблених для уникнення контролю з боку компанії.

Керівник Білого дому з питань штучного інтелекту Девід Сакс раніше попереджав про китайську тактику дистиляції, заявивши минулого року Fox News, що DeepSeek «вичавлює більше енергії» зі старих чіпів, а також посилаючись на «суттєві докази того, що DeepSeek тут витягла знання з моделей OpenAI».

Попередження OpenAI щодо дистиляції також з'явилося на тлі стурбованості багатьох у Вашингтоні тим, що доступ до передових чіпів штучного інтелекту також може пришвидшити прогрес DeepSeek. Наприкінці минулого року президент Дональд Трамп вжив заходів для послаблення обмежень на чіпи та дозволив Nvidia продавати свої процесори H200, чіпи, які приблизно на 18 місяців відстають від провідних версій Blackwell.

З моменту випуску R1, DeepSeek випустив лише незначні оновлення, навіть попри те, що конкуренти в США та Китаї випустили шквал нових моделей. Bloomberg повідомляв , що DeepSeek розробляє агентну модель, щоб конкурувати з OpenAI та іншими конкурентами, і сподівався випустити її наприкінці 2025 року.

Невдовзі після випуску R1 влада США розпочала розслідування щодо того, чи обходила DeepSeek експортний контроль США, купуючи чіпи через Сінгапур. Записи, нещодавно отримані комітетом Палати представників з питань Китаю, свідчать про те, що Nvidia Corp. надавала технічну підтримку DeepSeek, щоб допомогти їй покращити та спільно розробити свою модель R1. Базова модель DeepSeek-V3 потребувала лише 2,8 мільйона годин роботи на графічному процесорі H800 для повного навчання. Ці процесори було дозволено продавати до Китаю протягом кількох місяців у 2023 році, поки пізніше того ж року продажі не були призупинені правилом.

«DeepSeek мав би стати сигналом тривоги щодо небезпеки продажу передових напівпровідникових чіпів КПК. Використовуючи менш потужні чіпи Nvidia, Китай розробив найсучасніші моделі з відкритим кодом на планеті», – заявив минулого року після рішення щодо H200 представник-республіканець Майкл Маккол , який раніше очолював комісію Палати представників з нагляду за експортним контролем. «Мені страшно подумати про те, що вони могли б зробити з більш просунутим обладнанням, таким як чіпи H200».