前 OpenAI 高管 Mira Murati 創立的初創公司 Thinking Machines Lab,據 TechCrunch 獨家消息,已與 Google Cloud 簽訂一項價值數十億美元的協議,用以擴大其 AI 基礎設施的使用範圍,包括搭載 Nvidia 最新 GPU 的系統。據知情人士透露,此協議價值達單位數十億美元,並提供存取 Google 最新 AI 系統,這些系統建基於 Nvidia 新款 GB300 晶片,同時涵蓋支援模型訓練與部署的基礎設施服務。
Google 正積極與多間 AI 開發商締結雲端協議,旨在將其雲端服務與儲存、Kubernetes 引擎及 Spanner 資料庫等產品整合。本月稍早,Anthropic 與 Google 及 Broadcom 簽署協議,獲得數吉瓦張量處理單元(TPU)容量,這些是 Google 自家設計的 AI 晶片,用於機器學習工作負載。不過競爭激烈,本週 Anthropic 又與 Amazon 達成新協議,確保高達 5 吉瓦容量,用於訓練與部署 Claude 模型。
今年稍早,Thinking Machines 與 Nvidia 合作,並獲該晶片商投資,但這是該實驗室首次與雲端服務供應商簽約。協議並非獨家,Thinking Machines 未來可使用多間雲端供應商,但這顯示 Google 希望及早鎖定快速成長的前沿實驗室。Mira Murati 於 2025 年 2 月離開 OpenAI 首席技術官職位,創辦 Thinking Machines。
公司隨後以 120 億美元估值,完成 20 億美元種子輪融資,保持高度機密,直至 10 月推出首款產品 Tinker。這款工具可自動化建立自訂前沿 AI 模型。
協議細節與技術支援
週三公布的協議揭示 Thinking Machines 的開發方向。Google 新聞稿指出,其雲端可支援該初創的強化學習工作負載,而 Tinker 架構即依賴此技術。強化學習是 DeepMind 及 OpenAI 等實驗室近期突破的訓練方法,此協議規模反映其計算成本之高。Thinking Machines 是首批存取 Google Cloud GB300 系統的客戶,Google 表示該系統相較前代 GPU,在訓練與服務速度上提升 2 倍。
以下為 GB300 系統關鍵規格:
| 規格項目 | 細節 |
|---|---|
| 晶片基礎 | Nvidia GB300 |
| 訓練速度提升 | 2 倍(相較前代 GPU) |
| 服務速度提升 | 2 倍(相較前代 GPU) |
| 支援工作負載 | 強化學習、模型訓練與部署 |
「Google Cloud 讓我們以所需可靠性達到創紀錄速度運行,」Thinking Machines 創辦研究員 Myle Ott 在聲明中表示。




