NVIDIA 最近發佈了新一代 AI 基礎設施,重點是其 Vera CPU 和 Vera Rubin 平台,旨在推動下一波的自主 AI 系統及大型 AI 資料中心。該公司表示,這款新處理器和架構專為應對 AI 工作負載的快速增長而設計,隨著軟件代理逐漸能夠自主規劃任務、執行代碼並與其他系統互動,Vera CPU 的設計正是針對這些新興工作負載。
根據 NVIDIA 的說法,這款處理器的效率提高了兩倍,且速度比傳統的架構 CPU 快 50%。該芯片預計將用於訓練模型、運行 AI 代理以及管理雲平台和企業系統中的大型計算集群。
Vera CPU 的推出標誌著處理器在現代 AI 系統中的支持角色發生了變化。CPU 不再僅僅是支持 GPU,而是成為協調大型計算環境中 AI 工作負載的核心。NVIDIA 的創始人及首席執行官 Jensen Huang 表示,隨著智能變得自主 — 能夠推理和行動 — 協調這些工作的系統的重要性也隨之提升。這款 CPU 不再僅僅是支持模型,而是驅動它。
Vera CPU 的性能突破和能效提升,解鎖了更快且可擴展的 AI 系統。該處理器包括 88 顆定制設計的 Olympus CPU 核心以及高帶寬內存,能夠管理數千個同時運行的 AI 環境。單個包含 256 顆 Vera CPU 的機櫃可支持超過 22,500 個同時的 AI 環境,用於強化學習或代理測試。這款處理器還將與 NVIDIA 的 GPU 一同運行,通過高速度互聯技術共享數據。
許多主要的雲端公司和基礎設施供應商,包括阿里巴巴、Meta、Oracle Cloud Infrastructure、Dell Technologies 和聯想,計劃部署基於這款新處理器的系統。
Vera CPU 是 NVIDIA 更廣泛的 Vera Rubin 平台的一部分,該公司將其描述為一種新一代 AI 基礎設施,旨在作為多個硬件機櫃的統一超級計算機運行。該平台結合了七個芯片,涵蓋計算、網絡和存儲,以支持 NVIDIA 所謂的 AI 工廠 — 大型設施,旨在生成現代模型所需的大量 AI 令牌。Huang 表示,Vera Rubin 是一個世代性的飛躍 — 七個突破性芯片、五個機櫃、一個巨型超級計算機 — 專門用於推動 AI 的每個階段。
一個名為 Vera Rubin NVL72 的核心配置將 72 顆 GPU 和 36 顆 Vera CPU 集成到一個單一的機櫃系統中,並通過 NVIDIA 的 NVLink 技術相連。該系統的性能據說可提供高達四倍的 AI 訓練性能以及高達十倍的推理效率,與早期的 GPU 平台相比。
除了地球上的資料中心外,NVIDIA 還將其 AI 平台擴展到設計用於衛星和軌道資料中心的太空計算系統。Huang 表示,「太空計算,最後的邊疆,已經來臨。」在太空和地面系統之間的 AI 處理使得實時感知、決策和自主性成為可能。NVIDIA 表示,基於 Vera CPU 的系統和 Vera Rubin 基礎設施將於今年下半年通過硬件合作夥伴開始發貨。




