NVIDIA 正式发布 H200 NVL、GB200 NVL4 平台,企业伺服器运作再加速
NVIDIA 正式发表两款产品,分别是 GB200 NVL4 及 H200 NVL PCIe GPU,前者为配备两个 Grace CPU 的巨型四核心 B200 GPU 模组,以及 H200 NVL PCIe GPU,主要针对气冷式资料中心。
GB200 Grace Blackwell NVL4 Superchip 在一块主机板上搭载多达四颗 B200 GPU,透过 NVLink 与两颗以 Arm 为基础的 Grace CPU 相连。此解决方案针对 HPC 与 AI 混合工作负载,拥有高达 1.3 TB 的记忆体。NVIDIA 宣称 GB200 NVL4 相较於前身 GH200 NVL4,模拟性能提高 2.2 倍,训练与推理效能提高 1.8 倍。
NVIDIA 指出,GB200 NVL4 超级晶片下半年将在微星、华硕、技嘉、纬创、和硕、永擎电子(ASRock Rack)、联想、HP等多家供应商上市。
至於另一款 H200 NVL 是一款双插槽气冷式 GPU,采用 PCIe 介面,具有 PCIe 5.0 连接能力(每秒 128 GB)。此冷却器针对机架安装解决方案进行最佳化,采用直通式设计,进气从右向左流动,没有鼓风机风扇。
根据近期的一项调查显示,约有 70% 的企业机架功率在 20kW 及以下与采用气冷技术。这使得
PCIe GPU 变得非常重要,因为不管是使用一颗、两颗、四颗或八颗 GPU,PCIe GPU 都能提供
更细致的节点部署方式,让资料中心能够在更小的空间中装载更多的运算能力。企业可以使用现
有的机架,选择最适合其需求的 GPU 数量。
企业可以使用 H200 NVL 加速执行 AI 和 HPC 应用,同时还能降低功耗以提高能源使用效率。与
前一代 H100 NVL 相比,H200 NVL 的记忆体增加 1.5 倍,频宽增加了 1.2 倍,企业可以使用
H200 NVL 在数小时内微调 LLM 与得到高出 1.7 倍的推论效能。在处理 HPC 工作负载方面,效
能则比 H100 NVL 高了 1.3 倍,比 Ampere 架构世代提升 2.5 倍。
同时,H200 NVL 也配备 NVLink,每个 GPU 可提供的频宽高达 900 GB/s,让系统供应商能在单一机架上连接多达四个 GPU,提升效能。
H200 NVL 将由戴尔、HP、联想和美超微等多家供应商提供。此外,新的 GPU 将在 Aivres、永擎电子、华硕、技嘉、鸿佰、英业达、微星、和硕、云达、纬创和纬颖等厂商的平台上提供。
- Hopper Scales New Heights, Accelerating AI and HPC Applications for Mainstream Enterprise Servers
- Nvidia introduces a new merged CPU and GPU AI processor — GB200 Grace Blackwell NVL4 Superchip has four B200 GPUs, two Grace CPUs
(首图来源:NVIDIA)