OpenAI 近日正式向開發者開放其最新的編程模型 GPT‑5.1‑Codex‑Max,這一模型專注於長時間運行及「代理式」編碼任務,並在多項權威基準測試中表現出色,明顯優於常規版本的 GPT‑5.1‑Codex。值得注意的是,儘管性能顯著提升,該模型在 API 中的定價與 GPT‑5 相同,這一策略性升級被外界視為「高性能不漲價」。
報導指出,GPT‑5.1‑Codex‑Max 采用名為「壓縮(compaction)」的技術進行訓練,能夠在超過一百萬 tokens 的上下文窗口中持續工作。內部測試顯示,該模型能穩定執行超過 24 小時的任務。
在針對真實軟件工程場景的基準測試中,GPT‑5.1‑Codex‑Max 的得分分別提升至 77.9%、79.9% 和 58.1%,顯示其在複雜、多步驟開發任務中的優勢。
在商業層面,OpenAI 將 GPT‑5.1‑Codex‑Max 接入 API,定價與 GPT‑5 相同,輸入端約為每百萬 tokens 1.25 美元、輸出端每百萬 tokens 10 美元,並沿用 GPT‑5 的速率限制策略。此前,該模型僅對使用 Codex CLI、IDE 擴展、雲端服務及代碼審查功能的高階訂閱用戶開放,
如 ChatGPT Plus、Pro、Business、Edu 和 Enterprise,現在通過 API 普及後,OpenAI 宣布將其設為 Codex 系統中的默認代碼模型。
與以往偏向 Unix 環境的 Codex 系列不同,GPT‑5.1‑Codex‑Max 在訓練階段特別針對 Windows 環境進行了適配,使其對大量使用 Windows 作為主要開發平台的程序員而言更具吸引力。由於新模型在速度及 tokens 利用效率方面優于常規版 GPT‑5.1‑Codex,報導認為,Windows 開發者若無特殊需求,轉向此模型幾乎是「毫不猶豫的選擇」。
憑藉這次 API 開放,GPT‑5.1‑Codex‑Max 已迅速進入多款熱門開發工具生態,包括 Cursor、GitHub Copilot、Linear 等編碼助手產品。在 GitHub Copilot 系統中,該模型將向 Pro、Pro+、Business 和 Enterprise 訂閱用戶開放,並出現在多個使用場景的模型選擇器中,例如 Visual Studio Code 的聊天、提問、編輯和 agent 模式,以及 GitHub 網頁端和移動端的 Copilot Chat 與 Copilot CLI 等入口。
在競爭層面,OpenAI 的舉措明顯是針對對手 Anthropic 的強勢擴張所做的回應。近年來,Anthropic 將精力集中於面向企業和開發者的代碼模型,其 Claude Code 工具已成為最快達到十億美元里程碑的 SaaS 產品之一。報導援引行業預期稱,Anthropic 今年僅依賴面向開發與企業的代碼模型業務,就有望實現 80 至 100 億美元收入,這也促使 OpenAI 在 8 月推出 GPT‑5‑Codex,並在短時間內推動 Codex 使用量增長超過 10 倍,每周服務的 tokens 規模達到萬億級。
在此背景下,GPT‑5.1‑Codex‑Max 被視為 OpenAI 在開發者市場上的又一重要「加碼」,旨在強化其在企業級編碼工具領域與 Anthropic 的正面競爭力。然而,目前尚難以判斷新模型的上線及其與 GitHub Copilot 的深度整合,是否足以顯著減緩 Anthropic 在企業編碼市場上的迅猛增勢,未來一段時間內兩家公司在高端開發者工具領域的競爭仍將持續升溫。




