Multiverse Computing інсталює свій ШІ прямо в гаджет користувача і йому не потрібна хмара

Оскільки дефолти приватних компаній сягають понад 9,2% — найвищий показник за останні роки — венчурна компанія Lux Capital нещодавно порадила компаніям, які покладаються на штучний інтелект, отримати письмове підтвердження своїх зобов'язань щодо обчислювальних потужностей . Lux попередила, що з огляду на фінансову нестабільність, що охоплює ланцюжок поставок штучного інтелекту, однієї угоди недостатньо.
Але є зовсім інший варіант – повністю припинити покладатися на зовнішню обчислювальну інфраструктуру. Менші моделі штучного інтелекту, які працюють безпосередньо на власному пристрої користувача – без центру обробки даних, без хмарного провайдера, без ризику контрагента – стають достатньо вдалими, щоб їх варто було розглянути. І Multiverse Computing також піднімає руку.
Іспанський стартап досі залишався менш помітним, ніж деякі його конкуренти, але зі зростанням попиту на ефективність штучного інтелекту це змінюється. Після стиснення моделей з основних лабораторій штучного інтелекту, включаючи OpenAI, Meta, DeepSeek та Mistral AI, він запустив як додаток, який демонструє можливості своїх стиснутих моделей, так і портал API — шлюз, який дозволяє розробникам отримувати доступ до цих моделей та створювати їх за допомогою, — що робить їх більш доступними.
Додаток CompactifAI , який має спільну назву з квантовою технологією стиснення Multiverse, — це інструмент штучного інтелекту для чату, подібний до ChatGPT або Le Chat від Mistral. Задайте запитання, і модель отримає відповідь. Різниця полягає в тому, що Multiverse вбудував Gilda, модель настільки малу, що може працювати локально та офлайн, за словами компанії.

Для кінцевих користувачів це своєрідний досвід роботи зі штучним інтелектом на периферії, де дані не залишають їхні пристрої та не потребують підключення. Але є одне застереження: їхні мобільні пристрої повинні мати достатньо оперативної пам’яті та сховища. Якщо у них цього немає — а багато старих iPhone цього не мають — додаток повертається до хмарних моделей через API. Маршрутизація між локальною та хмарною обробкою здійснюється автоматично системою, яку Multiverse назвав Ash Nazg, чиє ім’я стане відомим шанувальникам Толкіна, оскільки воно посилається на напис «Єдиний персень» у «Володарі перснів». Але коли додаток перенаправляється до хмари, він втрачає свою головну перевагу в конфіденційності.
Ці обмеження означають, що CompactifAI ще не зовсім готовий до масового впровадження клієнтами, хоча це, можливо, ніколи не було метою. Згідно з даними Sensor Tower, за останній місяць додаток завантажили менше ніж 5000 разів .
Справжньою цільовою аудиторією є бізнес. Сьогодні Multiverse запускає портал самообслуговування API , який надає розробникам і підприємствам прямий доступ до стиснутих моделей — AWS Marketplace не потрібен.
«Портал API CompactifAI [тепер] надає розробникам прямий доступ до стиснутих моделей з прозорістю та контролем, необхідними для їх запуску у виробництві», – заявив генеральний директор Енріке Лізасо.
Моніторинг використання в режимі реального часу є однією з ключових функцій API, і це не випадково. Поряд з потенційними перевагами розгортання на периферії, нижчі обчислювальні витрати є однією з головних причин, чому підприємства розглядають менші моделі як альтернативу моделям великих мов програмування (LLM).
Також допомагає те, що малі моделі менш обмежені, ніж раніше. Раніше цього тижня Mistral оновила своє сімейство малих моделей, запустивши Mistral Small 4 , яка, за її словами, одночасно оптимізована для загального чату, кодування, агентних завдань та міркувань. Французька компанія також випустила Forge , систему, яка дозволяє підприємствам створювати власні моделі, включаючи малі моделі, для яких вони можуть вибирати компроміси, які найкраще переносять їхні випадки використання.
Нещодавні результати Multiverse також свідчать про скорочення розриву з LLM. Їхня остання стиснута модель, HyperNova 60B 2602 , побудована на gpt-oss-120b — моделі OpenAI, базовий код якої є загальнодоступним. Компанія стверджує, що тепер вона забезпечує швидші відповіді за нижчою ціною, ніж оригінал, з якого вона була отримана, що є перевагою, яка особливо важлива для робочих процесів агентного кодування, де ШІ автономно виконує складні багатоетапні завдання програмування.
Створення моделей, достатньо малих для роботи на мобільних пристроях, залишаючись при цьому корисними, є великим викликом. Apple Intelligence обійшла цю проблему, поєднавши модель на пристрої та хмарну модель. Додаток CompactifAI від Multiverse також може направляти запити до gpt-oss-120b через API, але його головна мета — продемонструвати, що локальні моделі, такі як Gilda та її майбутні замінники, мають переваги, які виходять за рамки економії коштів.
Для працівників у критично важливих галузях модель, яка може працювати локально та без підключення до хмари, пропонує більшу конфіденційність та стійкість. Але більша цінність полягає в бізнес-випадках використання, які це може розкрити, – наприклад, вбудовування штучного інтелекту в дрони, супутники та інші середовища, де підключення не можна сприймати як належне.
Компанія вже обслуговує понад 100 клієнтів по всьому світу, включаючи Банк Канади, Bosch та Iberdrola, але розширення клієнтської бази може допомогти їй отримати більше фінансування. Після залучення кредитів серії B на суму 215 мільйонів доларів минулого року, зараз ходять чутки про залучення нового раунду фінансування на суму 500 мільйонів євро з оцінкою понад 1,5 мільярда євро.