OpenAI 今日宣布與 AWS 達成一項重磅 AI 雲基礎設施合作協議。此前,OpenAI 與微軟 Azure 有專屬合作,為其提供 AI 及雲端基礎設施服務。由於 OpenAI 對算力的需求巨大,微軟先前放寬了合作條款,允許 OpenAI 主要用於研究和模型訓練的基礎設施自行搭建,但微軟仍保留優先拒絕權(ROFR)。
上月,微軟在與 OpenAI 擴大合作後宣布關鍵變化,允許 OpenAI 將非 API 產品(如 ChatGPT 和 Sora)托管在任何雲提供商上。
在最新條款下,OpenAI 今日宣布與 AWS 達成多年合作,將自即日起在 AWS 上運行並擴展其核心 AI 工作負載。根據協議,OpenAI 在未來七年內將向 AWS 支付約 380 億美元。AWS 實際上將通過 Amazon EC2 UltraServers 向 OpenAI 租賃數千塊 NVIDIA GB200 及 GB300 GPU。
AWS 方面表示,預計 OpenAI 將在 2026 年底前用盡所有規劃算力,2027 年有望進一步擴容。AWS 還強調,這些基礎設施不僅可用於 ChatGPT 的推理,也可用於訓練下一代模型。
AWS 首席執行官 Matt Garman 表示:「隨著 OpenAI 不斷突破 AI 可能性的邊界,AWS 業界領先的基礎設施將成為其 AI 雄心的支柱。廣泛且即時可用的算力優化,彰顯 AWS 在支持 OpenAI 大規模 AI 工作負載方面的獨特優勢。」
此前,OpenAI 的 AI 模型僅可在微軟 Azure 平台提供。近期,OpenAI 發佈了首個可公開調用的權重模型,使 AWS 能通過 Amazon Bedrock 為客戶提供服務。亞馬遜今日指出,OpenAI 的 gpt-oss 系列模型,已成為 Amazon Bedrock 最受歡迎的公有模型之一,包括 Comscore、Peloton、Thomson Reuters 等眾多客戶正在使用。




