Універсальний «мозок»: MIT представив новий спосіб для навчання роботів

Універсальний «мозок»: MIT представив новий спосіб для навчання роботів

МІТ представив новий спосіб для навчання роботів, який використовує велику кількість даних, подібно до того, як навчають великі мовні моделі, пише TechCrunch. Розповідаємо деталі.

Що сталося

Массачусетський технологічний інститут (MIT) представив нову модель, яка допоможе навчати роботів, використовуючи величезні обсяги даних, як у великих мовних моделях (LLM).

Дослідники зазначають, що традиційні методи навчання, зокрема імітаційне навчання, неефективне, коли виникають неочікувані умови, такі як зміна освітлення або нові перешкоди. У таких випадках роботам не вистачає даних для адаптації.

Тому вчені з MIT вирішили використовувати великий обсяг даних, як це роблять для навчання мовних моделей. Вони розробили нову архітектуру, яка називається Heterogeneous Pretrained Transformers (HPT). Ця система об’єднує інформацію з різних датчиків і середовищ, щоб навчити роботів краще адаптуватися до змін.

Що далі

Доцент Девід Хелд підкреслив, що метою дослідження є створення універсального «мозку» для роботів, який можна буде завантажити без потреби в додатковому навчанні.

Источник: vctr.media