NVIDIA Hopper 架构自推出以来,已经改变了人工智能(AI)与高效能运算(HPC)领域的发展格局,协助企业、研究人员与开发人员以更高的效能与更佳的能源效率,解决全球最复杂的挑战。
NVIDIA 在Supercomputing (超级运算大会) 2024 (SC24)期间宣布推出 NVIDIA H200 NVL PCIe GPU,这是 Hopper 系列的最新成员。H200 NVL 非常适合数据中心寻找低功耗、气冷式企业机架设计与弹性配置的组织,无论规模大小,都能加速执行各种 AI 与 HPC 工作负载。
根据近期的一项调查显示,约有 70% 的企业机架功率在 20kW 及以下与采用气冷技术。这使得 PCIe GPU 变得非常重要,因为不管是使用一颗、两颗、四颗或八颗 GPU,PCIe GPU 都能提供更细致的节点部署方式,让数据中心能够在更小的空间中装载更多的运算能力。企业可以使用现有的机架,选择最适合其需求的 GPU 数量。
企业可以使用 H200 NVL 加速执行 AI 和 HPC 应用,同时还能降低功耗以提高能源使用效率。与 NVIDIA H100 NVL 相比,H200 NVL 的内存增加了 1.5 倍,带宽增加了 1.2 倍,企业可以使用 H200 NVL 在数小时内微调 LLM 与得到高出 1.7 倍的推论效能。在处理 HPC 工作负载方面,效能则比 H100 NVL 高了 1.3 倍,比 NVIDIA Ampere 架构世代提升 2.5 倍。
NVIDIA NVLink 技术与 H200 NVL 的原始效能相辅相成。最新一代的 NVLink 技术提供比第五代 PCIe 快上七倍的 GPU 对 GPU 通讯速度,提供更高的效能,满足 HPC、大型语言模型推论及微调的需求。
NVIDIA H200 NVL 搭配强大的软件工具,可让企业加速从 AI 到 HPC 等应用。它附带有 NVIDIA AI Enterprise这个用于开发和部署生产 AI 的云端原生软件平台的五年订阅。 NVIDIA AI Enterprise 包含 NVIDIA NIM 微服务,能够安全可靠地部署高效能 AI 模型推论。
企业善用 H200 NVL 的强大能力
NVIDIA 藉由 H200 NVL 为企业提供开发和部署 AI 与 HPC 工作负载的全堆栈式平台。
客户看到不同产业里的多种 AI 与 HPC 使用案例中都出现显著影响,例如用于客户服务的视觉 AI 代理与聊天机器人、用于金融的交易算法、用于改善医疗照护异常侦测的医疗成像、用于制造业的模式识别,以及用于美国联邦科学组织的地震成像。
Dropbox 正运用 NVIDIA 加速运算来强化其服务与基础设施。
Dropbox 基础设施副总裁 Ali Zafar 表示:「Dropbox 处理着大量的内容,因此需要先进的 AI 和机器学习能力。我们正在探索 H200 NVL,以持续提升服务并为客户带来更多价值。」
美国新墨西哥大学已将 NVIDIA 加速运算技术用在各种研究与学术应用项目上。
新墨西哥大学先进研究运算中心主任 Patrick Bridges 教授表示:「身为一所公立研究型大学,我们对 AI的承诺让这所学校能够站在科技进步的最尖端。随着我们改为使用 H200 NVL,将能够加速执行包括数据科学计划、生物信息学与基因组学研究、物理与天文模拟,以及气候建模在内的各种应用项目。」
H200 NVL 可在整个生态系里使用
戴尔科技集团、慧与科技、联想和美超威预计将推出多种支持 H200 NVL 的系统配置。
Aivres、永擎电子、华硕、技嘉、鸿佰科技、英业达、微星、和硕联合科技、云达科技、纬创资通及纬颖科技的平台,也将提供 H200 NVL。
部分系统是以 NVIDIA MGX 模块化架构为基础,让计算机制造商能够以符合成本效益的方式快速建立大量的数据中心基础设施设计。
NVIDIA 全球系统合作伙伴将从 12 月开始提供搭载 H200 NVL 的平台。NVIDIA 也正在为 H200 NVL 系统开发企业参考架构,以搭配全球领先合作伙伴推出的系统。
该参考架构将加入 NVIDIA 的专业技术与设计原则,让合作伙伴与客户能够设计和部署以 H200 NVL 为基础的高效能 AI 基础设施。这包括全堆栈硬件与软件建议,以及最佳服务器、丛集与网络配置的详细指引。透过 NVIDIA Spectrum-X 以太网络平台,可将改进网络运作情况,以达到最出色的效能表现。
NVIDIA 将于 11 月 17 日至 22 日在亚特兰大乔治亚世界会议中心举行的 SC24 会场中展出多项技术。若要了解更多信息,请观看NVIDIA的特别演讲。
请参阅有关软件产品信息的通知。