Ілюзія штучного розуму: чому ШІ ніколи не стане людиною

Ілюзія штучного розуму: чому ШІ ніколи не стане людиною

Дискусії про штучний інтелект охоплюють весь спектр – від захоплення його здатністю генерувати код до страху перед апокаліптичними сценаріями. Проте, на думку Кела Ньюпорта, професора Джорджтаунського університету та автора книги “Цифровий мінімалізм”, ми робимо фундаментальну помилку, плутаючи вражаючу імітацію мови з реальним мисленням. Він пояснює, що навіть найсучасніші мовні моделі (LLM) залишаються лише статичними таблицями чисел, нездатними до свідомості чи самостійних рішень.

Популярна аналогія порівнює навчання нейромережі з розвитком дитини: дитина слухає дорослих і вчиться словам та патернам, а LLM “робить те саме”. Ньюпорт називає це сучасним анімізмом: ми бачимо швидко згенерований текст і приписуємо йому “свідомість” та “бажання”. Насправді моделі не проводять експериментів, не мають цінностей, інстинктів чи намірів – вони лише обчислюють ймовірності наступного слова на основі числових параметрів.

Під капотом сучасної LLM немає мозку чи прозрінь, лише таблиці чисел і алгоритми матричного множення. Текст перетворюється на числові вектори, які через шари трансформерів на GPU обробляються для вибору наступного слова. Навчена модель статична: після завершення навчання її параметри фіксуються, і навіть ChatGPT чи GPT-5 не “навчаються” під час діалогу – вони просто обробляють вектори через шари.

Попри це, вчені, як Джеффрі Хінтон, попереджають про ризики ШІ, але не через наявність свідомості. Їх тривога пов’язана з ефективністю навчання LLM: завдання “вгадай наступне слово” змушує систему створювати складні внутрішні зв’язки та розуміти контекст, гумор і сарказм. Для появи систем із власними цілями та здатністю до планування потрібна принципово інша архітектура, а не LLM.

Прогноз щодо 2025 року як “року ШІ-агентів”, систем, що виконують реальну роботу, не справдився. LLM не розуміють причинно-наслідкові зв’язки, не можуть моделювати майбутнє і не мають оновлюваної пам’яті для складних завдань. Інтеграція LLM в агентські системи дає ненадійні результати, а для створення справжнього “штучного розуму” потрібна комплексна система модулів із пам’яттю, цінностями та симуляцією світу, до якої ми поки що навіть близько не наблизилися.

Источник: itechua.com