Май 2024
Пн Вт Ср Чт Пт Сб Вс
29 30 01 02 03 04 05
06 07 08 09 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31 01 02
Новости компании

Nvidia выпустила ускоритель A100 c 80 ГБ памяти

Это новая версия А100 (40 ГБ памяти HBM2e), представленного в мае этого года. В ноябре были запущены первые инстансы AWS на A100 (инстансы EC2 P4d). Пропускная способность памяти в новой версии доведена до 3,2 Гбит/с на каждый пин, что даёт в сумме пропускную способность всей памяти 2 ТБ/с.

NVIDIA.JPG

Nvidia не снимает старую модель с производства и будет одновременно продавать 40- и 80-гигабайтные версии. Основные заказчики — клиенты с большими наборами данных для обучения систем ИИ. 

Сравнение первого и второго поколения А100 с 40 и 80 ГБ памяти

Единственное различие между 40-и 80-гигабайтной версиями A100 заключается в объёме и пропускной способности памяти. Обе модели сделаны на базе графических процессоров GA100 с максимальной тактовой частотой 1,41 ГГц. TDP у двух моделей тоже не отличается.

В новом A100 сохранилась та же конфигурация 5/6 стеков, но здесь поставили новую память HBM2E. Это неофициальное название для последнего поколения стандарта памяти HBM2 с рекордной пропускной способностью 3,2 Гбит/с на пин. Улучшения в техническом процессе позволили производителю удвоить ёмкость памяти. Конечным результатом является то, что HBM2E предлагает и больше ёмкость, и больше полосу пропускания.


Nvidia выпускает A100 на серверных платах HGX и DGX. Для клиентов, которым нужны отдельные экземпляры ускорителя, по-прежнему предлагаются A100 в исполнении PCIe, хотя в варианте 80 ГБ они пока не доступны.

Конфигурация DGX — это новинка. В такую систему устанавливается восемь ускорителей, так что совокупный объём памяти достигает 640 ГБ.

Также доступна рабочая станция DGX Station A100 - усечённая наполовину DGX A100 с четырьмя ускорителями A100 и одним процессором AMD EPYC. 
Энергопотребление пока неизвестно, но на пресс-конференции, заявили, что рабочая станция «работает от обычной розетки». Для сравнения, потребляемая мощность стандартной DGX A100 составляет 6,5 кВт.


Рабочая станция DGX Station A100

Массовое производство обеих систем уже началось. Nvidia говорит, что они работают в нескольких небольших суперкомпьютерах, таких как Cambridge-1. Но продажи для всех желающих планируются только в феврале 2021 года.

 

Nvidia выпустила ускоритель A100 c 80 ГБ памяти

Nvidia выпустила ускоритель A100 c 80 ГБ памяти

Nvidia выпустила ускоритель A100 c 80 ГБ памяти
Это новая версия А100 (40 ГБ памяти HBM2e), представленного в мае этого года. В ноябре были запущены первые инстансы AWS на A100 (инстансы EC2 P4d).? Пропускная способность памя...

Это новая версия А100 (40 ГБ памяти HBM2e), представленного в мае этого года. В ноябре были запущены первые инстансы AWS на A100 (инстансы EC2 P4d). Пропускная способность памяти в новой версии доведена до 3,2 Гбит/с на каждый пин, что даёт в сумме пропускную способность всей памяти 2 ТБ/с.

NVIDIA.JPG

Nvidia не снимает старую модель с производства и будет одновременно продавать 40- и 80-гигабайтные версии. Основные заказчики — клиенты с большими наборами данных для обучения систем ИИ. 

Сравнение первого и второго поколения А100 с 40 и 80 ГБ памяти

Единственное различие между 40-и 80-гигабайтной версиями A100 заключается в объёме и пропускной способности памяти. Обе модели сделаны на базе графических процессоров GA100 с максимальной тактовой частотой 1,41 ГГц. TDP у двух моделей тоже не отличается.

В новом A100 сохранилась та же конфигурация 5/6 стеков, но здесь поставили новую память HBM2E. Это неофициальное название для последнего поколения стандарта памяти HBM2 с рекордной пропускной способностью 3,2 Гбит/с на пин. Улучшения в техническом процессе позволили производителю удвоить ёмкость памяти. Конечным результатом является то, что HBM2E предлагает и больше ёмкость, и больше полосу пропускания.


Nvidia выпускает A100 на серверных платах HGX и DGX. Для клиентов, которым нужны отдельные экземпляры ускорителя, по-прежнему предлагаются A100 в исполнении PCIe, хотя в варианте 80 ГБ они пока не доступны.

Конфигурация DGX — это новинка. В такую систему устанавливается восемь ускорителей, так что совокупный объём памяти достигает 640 ГБ.

Также доступна рабочая станция DGX Station A100 - усечённая наполовину DGX A100 с четырьмя ускорителями A100 и одним процессором AMD EPYC. 
Энергопотребление пока неизвестно, но на пресс-конференции, заявили, что рабочая станция «работает от обычной розетки». Для сравнения, потребляемая мощность стандартной DGX A100 составляет 6,5 кВт.


Рабочая станция DGX Station A100

Массовое производство обеих систем уже началось. Nvidia говорит, что они работают в нескольких небольших суперкомпьютерах, таких как Cambridge-1. Но продажи для всех желающих планируются только в феврале 2021 года.

 

DMCA.com Protection Status