March 18, 2024

英伟达发布全新Blackwell,性能是H200的30倍

今天的GTC大会,NVIDIA如约推出其最新的DGX和Superchip平台,搭载全新Blackwell B200 GPU和Grace CPU,为人工智能(AI)和高性能计算(HPC)领域树立新的标杆。

此次,NVIDIA带来了两款创新组合——GB200,结合了Grace CPU与Blackwell B100 GPU,计划于2024年面市。这些平台不仅拥有高达192 GB的HBM3e内存和2700W的功率,还支持最新的PCIe 6.0标准,双向传输速度可达512 GB/s。值得一提的是,Blackwell B200 GPU与现有Hopper平台及数据中心制造商的最新解决方案相兼容,兼顾了创新与兼容性。

GB200 Grace Blackwell Superchip平台将装备双B200 AI GPU及单个Grace CPU,后者配备72个ARM Neoverse V2核心,整合提供高达40 PetaFlops的计算性能(INT8),内存池达864 GB,HBM内存带宽高达16TB/s。这些芯片通过3.6 TB/s的NVLINK带宽实现高速互联。

此外,两个GB200 Grace Blackwell Superchip平台还可以组合成一个Blackwell计算节点,以实现最高80 PetaFLOPs的AI性能、1.7 TB的HBM3e内存和32 TB/s的内存带宽,全部采用液冷MGX封装技术。

这些芯片将被整合进全新设计的GB200 NVL72计算平台,每个平台配备18个计算托盘,能在一个机架中容纳多达36个Grace CPU和72个Blackwell GPU。每个机架装备有ConnectX-800G Infiniband SuperNIC和Bluefield-3 DPU(80 GB/s内存带宽),为网络内计算提供支持。NVIDIA同时推出的最新NVLINK交换机拥有8个端口、1.8 TB/s的带宽和高达14.4 TB/s的总带宽。

特别值得一提的是,NVLink交换机的指标也非常彪悍,核心采用台积电 4NP节点制造,集成了500亿晶体管,具备72个端口、双200 GB/s的SerDes、4个NVLINK(1.8 TB/s)、7.2 TB/s的全双工带宽及3.6 TFLOPs的SHARP网络内计算能力。

在性能方面,GB200 Grace Blackwell Superchip平台将AI性能提升至H200 Grace Hopper平台的30倍。NVIDIA Blackwell GB200将在今年晚些时候通过DGX Cloud推出,同时,Dell、Cisco、HPE、Lenovo、Supermicro、Aivres、ASRock Rack、ASUS、Eviden、Foxconn、Gigabyte、Inventec、Pegatron、QCT、Wistron、Wiwynn以及ZT Systems等众多OEM厂商也将陆续推出各自的解决方案。

0 comments:

VxWorks

Blog Archive