Google Cloud 發佈第八代 TPU 8t 及 TPU 8i 晶片

Google Cloud 宣佈,其第八代自研 AI 晶片,即張量處理器 (TPU),將分拆為兩個版本。一款名為 TPU 8t 的晶片專注模型訓練,另一款 TPU 8i 則針對推論應用。推論指模型持續運作的階段,即用戶提交提示後的處理過程。

性能規格對比

規格項目TPU v8 提升
AI 模型訓練速度最高快 3 倍
每美元性能提升 80%
叢集規模超過 100 萬顆 TPU 協同運作

相較前代,新 TPU 帶來更多運算資源,同時大幅降低能源消耗及客戶成本。Google 強調這些晶片源自低功耗 Tensor 設計,雖名為 TPU 而非 GPU,但並非全面挑戰 Nvidia。目前,Google Cloud 如同 Microsoft 及 Amazon 等雲端巨頭,僅以自研晶片補充 Nvidia 系統,並非取代之。事實上,Google 承諾今年稍後於其雲端提供 Nvidia 最新 Vera Rubin 晶片。

即使 Amazon、Microsoft 及 Google 等超大規模雲供應商自製 AI 晶片,企業將 AI 需求轉移至雲端並移植應用時,Nvidia 依賴度或許降低,但現階段押注其衰退並不划算。知名晶片分析師 Patrick Moorhead 在 X 平台戲稱,早在 2016 年 Google 推出首代 TPU 時,他預測其將不利 Nvidia 及 Intel,如今 Nvidia 市值近 US$5 萬億(約 HK$39 萬億),證明該預測未獲時間驗證。

若依 Nvidia 規劃,Google AI 雲端擴張反將帶來更多業務,甚至雙方正合作優化基於 Nvidia 系統的雲端網路效率,特別強化 Google 於 2023 年開源的軟體網路技術 Falcon,該技術隸屬 Open Compute Project 開放資料中心硬體組織。

AI 內容聲明:本文由 AI 工具輔助撰寫初稿,經 TechRitual 編輯團隊審閱、修訂及事實查核後發佈。如有任何錯誤或需要更正,歡迎聯絡我們

Henderson
Henderson 是 TechRitual Hong Kong 科技編輯,專注報導智能手機、消費電子產品、SIM 卡及流動通訊市場。自加入 TechRitual 以來,累計撰寫數千篇科技報導及產品評測,內容同步發佈至 SINA 及 Yahoo Tech 等主要平台。部分文章由 AI 工具輔助撰寫,經編輯團隊審閱及事實查核後發佈。