Система обучения ИИ следующего поколения от Google невероятно быстра

Система обучения ИИ следующего поколения от Google невероятно быстра

Google представила второе поколение TPU (Tensor Processor Unit) — аппаратного обеспечения и программной экосистемы, которая лежит в основе самых амбициозных и далеко идущих технологий компании. Исполнительный директор Сандар Пичай (Sundar Pichai) рассказал о продукте во время ключевой презентации на ежегодной конференции разработчиков Google I/O.

Первое поколение TPU являлось специализированным чипом, созданным с прицелом на машинное обучение. Оно использовалось системой искусственного интеллекта AlphaGo в качестве основы для предсказания и принятия решений. Google также использует вычислительные возможности своих TPU каждый раз, когда кто-либо вбивает запрос в поисковую строку. Не так давно технология была использована для улучшения возможностей Google Translate, Google Photos и других служб при помощи машинного обучения.

Обычно подобные расчёты производятся при помощи графических ускорителей, отличающихся впечатляющими возможностями в области высокопараллельных вычислений. Например, Facebook использует карты NVIDIA в своих серверах Big Basin AI. Но Google приняла решение создать собственное аппаратное решение и оптимизировать под него своё ПО.

Поэтому оригинальный TPU создавался для оптимальной работы с Google TensorFlow, одной из многих открытых библиотек машинного обучения. Благодаря успехам Google из подразделений Brain и DeepMind, а также интеграции ПО с оборудованием TensorFlow стала одной из лидирующих платформ для создания ПО на базе ИИ.

Теперь Google сообщила, что второе поколение системы TPU уже полностью работоспособно и начало развёртываться в рамках платформы Google Compute Engine, которую другие компании и исследователи могут использовать по аналогии с Amazon AWS и Microsoft Azure. Google, разумеется, будет использовать систему и сама, но также продвигает TPU в качестве непревзойдённого ресурса, который могут использовать и другие заинтересованные компании.

Google разработала способ объединения множества TPU в серверные стойки TPU Pod, каждая из которых обеспечивает 11,5 Пфлопс вычислительных мощностей. Отдельные же TPU обладают впечатляющей мощью в 180 Тфлопс — разумеется, в том типе вычислений, которые сегодня наиболее часто применяются в технологиях машинного обучения.

Такая производительность даёт Google и её клиентам существенное преимущество и свободу экспериментирования в передовой области ИИ. Компания отмечает, что её новая крупномасштабная модель перевода на основе ИИ требует полной загруженности 32 самых мощных GPU в мире в течение суток, а одна восьмая стойки TPU Pod справляется с задачей всего за шесть часов.

Вдобавок второе поколение TPU позволяет серверам Google проводить одну и ту же работу как в режиме принятия решений, так и в режиме обучения. Оригинальный TPU мог только принимать решения в реальном времени на основе существующего алгоритма. Обучение же является собственно частью процесса разработки алгоритма.

Машинное обучение — процесс анализа искусственным интеллектом огромного массива данных, чтобы нейронная сеть могла решать задачи с использованием нечёткой логики так, как не может обычный алгоритм. Результатом, например, становится более качественные возможности перевода между языками или более человекоподобное поведение машины при игре в шахматы и так далее. В общем, системы обучения улучшают алгоритм ИИ на основе огромных массивов данных, так что если каждый эксперимент занимает не недели, а дни или даже часы, то возможности разработчиков ИИ принципиально улучшаются (при условии использования библиотеки TensorFlow, конечно).

Google также поддерживает тех разработчиков, которые готовы публиковать результаты своих исследований, в том числе исходные коды — в рамках программы TensorFlow Research Cloud, таким разработчикам будет бесплатно предоставляться доступ к кластеру из 1000 TPU.

Источник: servernews.ru