Nvidia 推新晶片GH200 Grace Hopper,為人工智能注入新動力

Nvidia 宣布推出下一代人工智能晶片平台,採用全球首款搭載 HBM3e 處理器的 Grace Hopper 超級晶片。

新的 Nvidia GH200 Grace Hopper 平台專為大型生成式人工智能工作負載而設計,例如 ChatGPT 等大型語言模型。Nvidia 還提到它可以處理其他人工智能應用,如推薦系統和向量數據庫。

該雙配置提供的記憶體容量和頻寬分別比當前一代多 3.5 倍和 3 倍。它搭載了一個單一服務器,配備 144 個 Arm Neoverse 核心,8 千億次的人工智能性能和 282 GB 的 HBM3e 記憶體技術。

Nvidia CEO 黃仁勳表示,這些升級「提高了吞吐量,[增加] 了連接 GPU 以實現性能集成的能力,並具有可輕鬆部署於整個數據中心的服務器設計。」

Grace Hopper 超級晶片可以通過 Nvidia NVLink 連接其他超級晶片,以增加部署生成式人工智能大型模型所需的計算能力。

通過這種連接,GPU 可以完全訪問 CPU 記憶體,提供雙配置模式下合計 1.2 TB 的記憶體。新的 HBM3e 記憶體比 HBM3 快 50% ,總計提供 10 TB/sec 的合計頻寬,因此可以運行 3.5 倍更大的模型。同時,由於頻寬增加了 3 倍,性能也得到了提升。

NVIDIA 稱搭載 HBM3e 的 Grace Hopper 超級晶片平台完全兼容 Nvidia MGX 服務器規範,允許任何製造商以快速且具有成本效益的方式將 Grace Hopper 添加到一百多種服務器變體中。

Nvidia 在人工智能硬件領域的持續主導地位,因為其 A100 GPU 被用於驅動 ChatGPT 背後的機器,這是一個引領了先進自動化計算的新世界的著名聊天機器人。隨後,Nvidia 推出了其後繼產品 H100。

Nvidia 還表示,他們預計系統製造商將在 2024 年第二季度推出基於 Grace Hopper 的首批模型。