Дослідники штучного інтелекту стурбовані «колапсом моделі»

Дмитро Сизов
Дослідники штучного інтелекту стурбовані «колапсом моделі»

У певних куточках технологічної індустрії вірять, що навчання систем штучного інтелекту на великих обсягах онлайн-даних дозволить цим інструментам з часом ставати кращими — можливо, настільки, що вони перевершать людей у ​​певних завданнях.

Але нова дослідницька стаття ставить під сумнів цей підхід і викликає тривогу щодо того, що може бути фатальним недоліком у розробці систем ШІ. 

У статті, опублікованій у журналі Nature у липні, дослідники виявили, що коли моделі штучного інтелекту навчаються на даних, які включають контент, створений штучним інтелектом (що, ймовірно, буде все більш поширеним), вони в кінцевому підсумку призводять до погіршення продуктивності, явища, яке називають «колапсом моделі».

Отримані висновки посилюють скептицизм щодо довгострокової траєкторії розвитку штучного інтелекту та з’являються в той час, коли Уолл-стріт уже сумнівається, чи окупляться величезні інвестиції Big Tech у розробку штучного інтелекту.

Що таке колапс моделі?

Чат-боти зі штучним інтелектом, такі як ChatGPT, працюють на основі великих мовних моделей , навчених на майже неймовірній кількості даних ( трильйони слів , у деяких випадках), отриманих із веб-сторінок, статей, розділів коментарів тощо. Завдяки цим величезним наборам даних компанії зі штучним інтелектом змогли створювати продукти, які можуть видавати надзвичайно актуальні відповіді на запити користувачів.

Але деякі дослідники штучного інтелекту висловлюють занепокоєння, що ці моделі з часом стануть значно менш точними та «зруйнуються», якщо їх навчати на контенті, створеному штучним інтелектом, а не реальними людьми. Одна стаття 2023 року про крах моделі показала, що ШІ-зображення людей дедалі більше спотворювалися після того, як модель перенавчалася на «навіть невеликих кількостях їх власного творіння». Дослідники порівняли це явище з системою штучного інтелекту, «отруєною» власною роботою.

Що виявила нова стаття?

У новій статті Nature дослідники з Оксфордського, Кембриджського та інших університетів виявили, що моделі ШІ, навчені за допомогою контенту, створеного ШІ, дають ненавмисні та потенційно безглузді результати. Як пояснили дослідники , помилки однієї моделі посилюються наступною, відштовхуючи штучний інтелект ще далі від реальності, поки підказки, по суті, не дають тарабарщини.