Google 正將原本多用於人工智慧模型訓練與推理工作的晶片任務拆分至不同處理器,這是其在 AI 晶片領域對抗英偉達的最新舉措。公司周三宣布,將對第八代張量處理單元(TPU)進行此調整,兩款晶片均預計於今年晚些時候推出。Google 高級副總裁兼人工智慧與基礎設施首席技術官阿米特·瓦爾達(Amit Vahdat)在部落格文章中表示:「隨著 AI 智能體的興起,我們認為,針對訓練與部署需求進行專業化設計的晶片,將令業界受益。
」 今年 3 月,英偉達曾宣布即將推出晶片產品,借鑒以 200 億美元收購的晶片初創企業 Groq 技術,該晶片可加速模型回應使用者查詢。Google 是英偉達的大客戶,但同時為使用其雲服務的企業提供 TPU 作為替代方案。
業界競相開發 AI 專用晶片
全球多家頂尖科技企業均在研發人工智慧專用半導體,以最大化運算效率,滿足特定應用場景需求。Apple 多年前起在自家 iPhone 晶片中整合神經網路引擎 AI 組件;Microsoft於今年 1 月發佈第二代 AI 晶片;上周,Meta 宣布正與博通合作開發多款 AI 處理器。Google 是此趨勢的先行者。自 2015 年起,Google 開始使用自研晶片運行 AI 模型,並於 2018 年向雲服務客戶開放租賃。
Amazon雲科技則於 2018 年推出用於處理 AI 請求的 Inferentia 晶片,2020 年發佈用於訓練 AI 模型的 Trainium 處理器。 投行 D.A. Davidson 分析師去年 9 月估計,TPU 業務加上 Google DeepMind AI 團隊,總值約 9000 億美元,US$900 億,約 HK$7020 億。目前無任何科技巨頭能取代英偉達,Google 尚未將新晶片的性能與這位 AI 晶片龍頭的產品做對比。
不過 Google 表示,新款訓練晶片的性能為去年 11 月發佈的第七代鐵電金屬 TPU 的 2.8 倍,且價格相同;推理晶片性能則提升 80%。 英偉達稱,其即將推出的 Groq3 LPU 晶片將採用大量靜態隨機存取記憶體(SRAM),本月早些時候提交上市申請的 AI 晶片廠商 Cerebras 亦使用此技術。Google 新款推理晶片代號為 TPU8i,同樣搭載 SRAM,單晶片配置 384MB SRAM,容量為鐵電金屬 TPU 的三倍。
Google 母公司 Alphabet 首席執行官桑達爾·皮查伊(Sundar Pichai)在部落格中寫道,該晶片架構著重「以高性價比實現海量吞吐量與低延遲,滿足同時運行數百萬智能體的需求」。Google AI 晶片的應用規模正擴大。公司表示,城堡證券已基於 Google TPU 建置量化研究軟件;美國能源部旗下 17 個國家實驗室均使用基於該晶片的 AI 合作科學家軟件;人工智慧企業 Anthropic 已承諾使用數十萬級的 Google TPU 算力。




