Nvidia працює над GPU AI зі 144 ГБ пам’яті HBM3E

Nvidia працює над GPU AI зі 144 ГБ пам’яті HBM3E

За даними TrendForce, Nvidia працює над наступним поколінням графічних процесорів B100 і B200, які базуються на архітектурі Blackwell. Очікується, що нові графічні процесори з’являться на ринку в другій половині цього року і використовуватимуться для хмарних клієнтів CSP. Для тих, хто не знайомий, «хмарні клієнти CSP» стосуються клієнтів, які використовують постачальників хмарних послуг (CSP) для своїх потреб у хмарних обчисленнях. Компанія також додасть оптимізовану версію B200A для корпоративних замовників OEM, які потребують передового ШІ.

Повідомляється, що ємність упаковки CoWoS-L TSMC (яка використовується серією B200) продовжує бути обмеженою. Зазначається, що B200A перейде на відносно просту технологію упаковки CoWoS-S. Компанія зосереджується на B200A, щоб відповідати вимогам постачальників хмарних послуг.

Технічні характеристики B200A:

На жаль, технічні характеристики B200A ще повністю невідомі. Наразі можна лише підтвердити, що ємність пам’яті HBM3E зменшена зі 192 ГБ до 144 ГБ. Також повідомляється, що кількість шарів чіпа пам’яті зменшено вдвічі з восьми до чотирьох. З усім тим, ємність одного чіпа збільшена з 24 ГБ до 36 ГБ.

Енергоспоживання B200A буде нижчим, ніж GPU B200, і йому не знадобиться рідинне охолодження. Система повітряного охолодження нових графічних процесорів також спростить їх налаштування. Очікується, що B200A буде поставлено виробникам OEM приблизно в другому кварталі наступного року.

Опитування ланцюжків постачання показують, що основні поставки графічних процесорів високого класу NVIDIA у 2024 році базуватимуться на платформі Hopper, з H100 і H200 для ринку Північної Америки та H20 для ринку Китаю. Оскільки B200A стане доступним приблизно у другому кварталі 2025 року, очікується, що він не заважатиме H200, який надійде в третій квартал або пізніше.

Источник: portaltele.com.ua