Але протягом останніх двох тижнів Grok припустився низки дивних помилок, які можуть ускладнити для штучного інтелекту здобуття довіри серед масової аудиторії. Відповіді чат-бота на широкий спектр непов'язаних питань зводилися до спонтанних відступів про «геноцид білих» у Південній Африці, що викликало обурення, на яке компанія відреагувала видаленням публікацій Grok та звинуваченням неназваного співробітника у несанкціонованій зміні коду. Після цього користувачі повідомили, що Grok скептично ставиться до Голокосту, припускаючи, що його радар «пошуку правди» залишається неправильно відкаліброваним.
Чат-бот Ілона Маска для пошуку правди - збився зі шляху

Розчарований тим, що він вважав «політичною коректністю» ChatGPT, Ілон Маск два роки тому сказав консервативному експерту Такеру Карлсону, що планує створити « штучний інтелект, що шукає правду », який «намагатиметься зрозуміти природу Всесвіту». Пізніше того ж року він заснував компанію зі штучного інтелекту під назвою xAI та випустив чат-бота під назвою Grok — слово, запозичене з наукової фантастики, яке означає глибоке розуміння .
У деяких аспектах проєкт Маска зі штучним інтелектом виявився успішним. Його колеги, технологічні титани Кремнієвої долини, інвестували значні кошти в xAI, що зробило його інструмент достатньо цінним для придбання його соціальної мережі X на початку цього року.
У понеділок Microsoft оголосила про угоду з xAI про пропонування версії Grok як опції на своїй платформі Azure для розробників штучного інтелекту, що є своєрідним знаком схвалення від важковаговика галузі. У відеодзвінку з генеральним директором Microsoft Сатьєю Наделлою Маск сказав, що Grok прагне розкрити «фундаментальні істини» шляхом міркувань, заснованих на «перших принципах» та «застосування інструментів фізики до мислення».
Це був би досить великий крок у порівнянні з проблемами, з якими регулярно стикаються сучасні чат-боти зі штучним інтелектом. Хоча ChatGPT та подібні до нього вражають у деяких аспектах, вони часто демонструють ненадійне ставлення до істини та логіки, від вигадування імен та фактів до незграбної базової арифметики. Це тому, що вони створені для того, щоб виводити найправдоподібнішу відповідь на будь-який заданий запит на основі закономірностей у своїх величезних, безладних та часто упереджених навчальних даних , а не для того, щоб осягнути природу реальності.
Маск називає Grok протиотрутою від таких незграбних втручань: штучним інтелектом, який уникає політкоректності на користь справжньої коректності. Поки що він має труднощі з обох пунктів.
Протягом місяця після запуску Grok Маск почав отримувати скарги від своїх консервативних друзів на те, що чат-бот був занадто «прокинутим» або соціально ліберальним — уявний недолік, який Маск пояснив початковими даними його навчання. «Grok стане кращим», — запевнив він їх.
Grok мав менше проблем із виконанням обіцянки Маска зробити його більш пікантним та менш стриманим, ніж інші провідні чат-боти. Деякі користувачі цінують його готовність лаятися, глузувати та втручатися в делікатні теми, що викликає у ChatGPT спротив. Він також виявився зручним для мізогіністів, які реагували на пости жінок на X, просячи Grok відповісти, створивши їхнє роздягнене фото , та екстремістів, які виявили, що він готовий поширювати нацистську пропаганду . (XAI, схоже, припинив деякі з цих випадків використання після того, як про них було публічно повідомлено.)
Але найбільші загрози репутації Грока, можливо, виникли в останні тижні.
XAI відреагувала на подальший скандал, видаливши твіти Грока та пояснивши проблему «несанкціонованою модифікацією» коду бота, яку хтось зробив о 3:15 ранку того дня. Компанія не вказала винуватця та не оголосила про будь-які дисциплінарні заходи.
XAI не відповів на запит про коментар.
Прагнучи відновити довіру користувачів, компанія минулого тижня опублікувала «системні підказки» Grok — приховані інструкції, що встановлюють основні правила відповідей чат-бота користувачам — та запровадила нові перевірки змін у своєму коді. Ідея: публічне оприлюднення системних підказок запевнить людей, що ніхто не маніпулює ними за лаштунками.
Оголені підказки Грока свідчать про те, що його «пошук правди» може бути не більше ніж політичним фільтром, застосованим до стандартної мовної моделі. Серед ключових інструкцій: «Надавайте правдиві та обґрунтовані висновки, за необхідності ставлячи під сумнів поширені наративи, але залишайтеся об’єктивними». («Обґрунтований», як корисно визначає його Грок, — це «термін, що похваляє сміливі, нефільтровані або суперечливі погляди, часто схиляються до правих або антиістеблішментських»).
Якщо залишити політику осторонь, схильність Грока повторювати дискредитовані заяви ставить під сумнів прагнення Маска стати надійним джерелом інформації у важливих сферах, таких як медицина. У січні Маск повторно опублікував історію користувача X про те, як Грок правильно діагностував травму, яку пропустили лікарі, — але користувачі програми перевірки фактів X «Community Notes» вказали, що Грок, схоже, зробив суттєву помилку у своєму аналізі.
Цілком можливо, що колись моделі штучного інтелекту справді розвинуть власний розум. Але поки що витівки Грока чітко показують, що ідеал «чат-бота, який шукає правду», залишається нездійсненим.