Google створює спеціальні чіпи для навчання Apple AI і власного чат-бота Gemini

Дмитро Сизов
Google створює спеціальні чіпи для навчання Apple AI і власного чат-бота Gemini

У розгалуженій лабораторії Google, в штаб-квартирі в Маунтін-В’ю, Каліфорнія, сотні серверних стійок гудять по кількох проходах, виконуючи завдання, набагато менш повсюдні, ніж запуск панівної пошукової системи у світі або виконання робочих навантажень для мільйонів клієнтів Google Cloud.

Замість цього вони проводять тести на власних мікрочипах Google, які називаються Tensor Processing Units або TPU.

Спочатку розроблені для внутрішніх робочих навантажень, TPU від Google доступні клієнтам хмари з 2018 року . У липні Appleпоказало, що використовує TPU для навчання моделей AI, які лежать в основі Apple Intelligence. Google також покладається на TPU для навчання та запуску свого чат-бота Gemini.

«У світі існує таке фундаментальне переконання, що весь ШІ, великі мовні моделі, навчаються на Nvidia, і, звичайно, Nvidia має левову частку обсягу навчання. Але тут Google пішла власним шляхом», — сказав генеральний директор Futurum Group Деніел Ньюман. Він розповідає про спеціальні хмарні чіпи Google з моменту їх запуску в 2015 році.

Google був першим хмарним провайдером, який виготовив власні мікросхеми AI. Через три роки AmazonWeb Services анонсувала свій перший хмарний чіп AI Inferentia. MicrosoftПерший спеціальний чіп AI , Maia, не було анонсовано до кінця 2023 року. 

Але бути першим у чіпах штучного інтелекту не призвело до першості в загальній гонці генеративного штучного інтелекту. Google зіткнувся з критикою за невдалий випуск продуктів , а Gemini вийшов більш ніж через рік після ChatGPT від OpenAI .

Google Cloud, однак, набрав обертів частково завдяки пропозиціям ШІ. Материнська компанія Google Alphabet повідомила, що доходи від хмарних технологій зросли на 29% в останньому кварталі, вперше перевищивши 10 мільярдів доларів квартального доходу.

«Епоха хмар штучного інтелекту повністю змінила спосіб сприйняття компаній, і ця силіконова диференціація, сам TPU, може бути однією з головних причин того, що Google перейшла від третьої хмари до того, щоб її сприймали по-справжньому рівномірно, і, на думку деяких, можливо, навіть випереджає дві інші хмари за своїми можливостями штучного інтелекту», – сказав Ньюман.

«Простий, але потужний уявний експеримент»

У липні CNBC отримав першу камерну екскурсію по чіп-лабораторії Google і зустрівся з головою спеціального хмарного чіпу Аміном Вахдатом. Він уже працював у Google, коли в 2014 році вперше задумали виробляти мікросхеми. 

Амін Вахдат, віце-президент Google з машинного навчання, систем і хмарного штучного інтелекту, демонструє TPU версії 4 у штаб-квартирі Google у Маунтін-В’ю, штат Каліфорнія, 23 липня 2024 року.
Амін Вахдат, віце-президент Google з машинного навчання, систем і хмарного штучного інтелекту, демонструє TPU версії 4 у штаб-квартирі Google у Маунтін-В’ю, штат Каліфорнія, 23 липня 2024 року.
Марк Ганлі

«Все почалося з простого, але потужного експерименту», — сказав Вахдат. «Кілька потенційних клієнтів у компанії задавали питання: що станеться, якщо користувачі Google захочуть спілкуватися з Google за допомогою голосу лише 30 секунд на день? І скільки обчислювальної потужності нам знадобиться для підтримки наших користувачів?»

Група вирішила, що Google буде потрібно подвоїти кількість комп’ютерів у своїх центрах обробки даних . Тому вони шукали кращого рішення.

«Ми зрозуміли, що можемо створювати спеціальне обладнання, не обладнання загального призначення, а спеціальне обладнання — у цьому випадку модулі обробки тензорів — для підтримки цього набагато, набагато ефективніше. Насправді, у 100 разів ефективніше, ніж це було б інакше ”, - сказав Вахдат.

Центри обробки даних Google все ще покладаються на центральні процесори загального призначення (CPU) і графічні процесори (GPU) Nvidia. TPU від Google – це інший тип чіпа, який називається спеціальною інтегральною схемою або ASIC, створеним спеціально для певних цілей. TPU зосереджений на ШІ. Google створює іншу ASIC, орієнтовану на відео, яка називається Video Coding Unit. 

Google також виготовляє спеціальні мікросхеми для своїх пристроїв, подібно до спеціальної стратегії Apple щодо кремнію . Tensor G4 працює на новому Pixel 9 від Google із підтримкою штучного інтелекту , а його новий чіп A1 працює на Pixel Buds Pro 2. 

Однак TPU – це те, що вирізняє Google. Він був першим у своєму роді, коли він був запущений у 2015 році. За даними The Futurum Group, Google TPU досі домінують серед користувальницьких хмарних прискорювачів ШІ, маючи 58% частки ринку .

Google ввів цей термін на основі алгебраїчного терміна «тензор», посилаючись на великомасштабні множення матриць, які швидко відбуваються для розширених програм ШІ.

Випустивши другий випуск TPU у 2018 році, Google розширив фокус від висновків до навчання та зробив їх доступними для своїх хмарних клієнтів для виконання робочих навантажень разом із провідними на ринку чіпами, такими як графічні процесори Nvidia.

«Якщо ви використовуєте графічні процесори, вони більш програмовані, вони більш гнучкі. Але їх не вистачає», — сказала Стейсі Расгон, старший аналітик з питань напівпровідників Bernstein Research.

Бум штучного інтелекту сколихнув акції Nvidia, піднявши ринкову капіталізацію виробника мікросхем до 3 трильйонів доларів у червні, випередивши Alphabet і змагаючись із Apple і Microsoft за позицію найдорожчої публічної компанії у світі .

«Відверто кажучи, ці спеціальні прискорювачі штучного інтелекту не такі гнучкі чи потужні, як платформа Nvidia, і це те, що ринок також чекає побачити: чи може будь-хто грати в цьому просторі?» — сказав Ньюмен.

Тепер, коли ми знаємо, що Apple використовує TPU від Google для навчання своїх моделей штучного інтелекту, справжнє випробування відбудеться, коли ці повні функції штучного інтелекту з’являться на iPhone і Mac наступного року .

Broadcom і TSMC

Розробити альтернативи движкам штучного інтелекту Nvidia – це не маленький подвиг. TPU шостого покоління Google під назвою Trillium має вийти пізніше цього року.

Google показала CNBC шосту версію свого TPU Trillium у Маунтін-В’ю, штат Каліфорнія, 23 липня 2024 року. Trillium має вийти пізніше 2024 року.
Google показала CNBC шосту версію свого TPU Trillium у Маунтін-В’ю, штат Каліфорнія, 23 липня 2024 року. Trillium має вийти пізніше 2024 року.
Марк Ганлі

″Це дорого. Вам потрібен великий масштаб”, - сказав Расгон. «Тож це не те, що може зробити кожен. Але ці гіперскейлери мають масштаб, гроші та ресурси, щоб піти цим шляхом».

Процес настільки складний і дорогий, що навіть гіперскалери не можуть зробити це самостійно. Починаючи з першого TPU, Google співпрацює з Broadcom, розробник мікросхем, який також допомагає Metaрозробили свої мікросхеми ШІ . Broadcom каже, що витратила понад 3 мільярди доларів на реалізацію цих партнерств.  

«Чіпи штучного інтелекту — вони дуже складні. Там є багато речей. Тому Google забезпечує обчислення», — сказав Расгон. «Broadcom виконує всі периферійні роботи. Вони виконують введення/виведення та SerDes , усі різні компоненти, які працюють навколо цього комп’ютера. Вони також займаються упаковкою».

Потім остаточний дизайн відправляється на виробництво на виробничий завод або фабрику, яка переважно належить найбільшому у світі виробнику мікросхем, компанії Taiwan Semiconductor Manufacturing Company., що становить 92% найсучасніших напівпровідників у світі.

Коли його запитали, чи має Google якісь запобіжні заходи на випадок найгіршого в геополітичній сфері між Китаєм і Тайванем, Вахдат сказав: «Ми, безумовно, готуємося до цього, і ми також думаємо про це, але ми сподіваємося, що насправді це не щось що нам доведеться запустити».

Захист від цих ризиків є основною причиною, чому Білий дім виділяє 52 мільярди доларів США в рамках Закону про CHIPS компаніям, які будують фабрики в США, причому на сьогоднішній день найбільші частки дістаються Intel , TSMC і Samsung .

Процесори та потужність

Крім ризиків, Google щойно зробила ще один великий крок у виробництві мікросхем, оголосивши, що свій перший ЦП загального призначення Axion буде доступний до кінця року.

Google показала CNBC свій новий процесор на базі Axion Arm у своїй лабораторії мікросхем у Маунтін-В’ю, штат Каліфорнія, 23 липня 2024 року. Його планується випустити пізніше 2024 року.
Google показав CNBC свій новий процесор Axion,
Марк Ганлі

«Тепер ми можемо включити останню частину головоломки, процесор», — сказав Вахдат. «І тому багато наших внутрішніх служб, чи то BigQuery , чи то Spanner , реклама на YouTube тощо, працюють на Axion».

Google запізнюється з процесором. Amazon випустив свій процесор Graviton у 2018 році. Alibabaвипустила свій серверний чіп у 2021 році . Microsoft анонсувала свій процесор у листопаді .

Коли його запитали, чому Google не створила ЦП раніше, Вахдат сказав: «Ми зосереджені на тому, де ми можемо забезпечити найбільшу цінність для наших клієнтів, і це починалося з ТП, наших блоків кодування відео, нашої мережі. Ми справді думали, що час настав».

Усі ці процесори від невиробників мікросхем, у тому числі від Google, стали можливими завдяки Armархітектура мікросхеми — більш настроювана, енергоефективна альтернатива, яка набирає популярності в порівнянні з традиційною моделлю x86 від Intelі AMD. Енергоефективність має вирішальне значення, оскільки до 2027 року сервери штучного інтелекту щорічно споживатимуть стільки енергії, скільки й така країна, як Аргентина. Останній екологічний звіт Google показує, що викиди зросли майже на 50% з 2019 по 2023 роки частково через зростання центрів обробки даних для живлення ШІ.

«Без ефективності цих чіпів цифри могли б опинитися в зовсім іншому місці», — сказав Вахдат. «Ми як і раніше прагнемо фактично досягти цих цифр щодо викидів вуглецю від нашої інфраструктури, цілодобово та без вихідних, доводячи їх до нуля».

Щоб охолодити сервери, які тренують і запускають штучний інтелект, потрібна величезна кількість води. Ось чому Google TPU третього покоління почав використовувати охолодження безпосередньо до чіпа, яке споживає набагато менше води. Також Nvidia охолоджує свої останні графічні процесори Blackwell.

Незважаючи на виклики, від геополітики до електроенергії та води, Google прагне до своїх генеративних інструментів штучного інтелекту та виробництва власних мікросхем. 

«Я ніколи не бачив нічого подібного, і поки немає жодних ознак того, що він уповільнюється», — сказав Вахдат. «І апаратне забезпечення тут відіграватиме справді важливу роль».