中國人工智能公司 DeepSeek 近日發佈 V4 模型預覽版,此為其備受期待的旗艦升級版。V4 在處理長提示方面表現更出色,得益於全新設計,能更高效應對大量文本。與前代模型相同,V4 採開放源碼模式,任何人都可下載、使用及修改。這是 DeepSeek 自 2025 年 1 月推出推理模型 R1 以來最重要發佈。R1 在有限運算資源下展現強勁效能,震撼全球 AI 業界,將 DeepSeek 從鮮為人知的研究團隊一躍成為中國最知名 AI 企業,並引發中國其他 AI 公司開放權重模型浪潮。
此後 DeepSeek 保持低調,本月早些更新線上模型加入「專家」及「閃電」模式,引發外界猜測與 V4 相關。儘管公司象徵中國 AI 雄心,其重返前沿模型領域伴隨人事變動、先前模型延遲及中美政府審查等挑戰。
V4 效能與定價優勢
DeepSeek 聲稱 V4 效能媲美頂尖模型,成本僅為其一小部分,對開發者及企業極具吸引力。模型分 V4-Pro 及 V4-Flash 兩版,均可在 DeepSeek 網站及應用程式使用,並開放 API 存取。V4-Pro 適合編碼及複雜代理任務,V4-Flash 則更快速、低成本。兩版均支援推理模式,逐步展示問題解析過程。 以下為定價及規格比較表(以每百萬 token 計):
| 模型版本 | 輸入 token 定價 | 輸出 token 定價 |
|---|---|---|
| V4-Pro | US$1.74,約 HK$13.57 | US$3.48,約 HK$27.14 |
| V4-Flash | US$0.14,約 HK$1.09 | US$0.28,約 HK$2.18 |
效能方面,V4-Pro 在基準測試中匹敵 Anthropic Claude-Opus-4.6、OpenAI GPT-5.4 及 Google Gemini-3.1 等封閉源碼模型,超越 Alibaba Qwen-3.5 及 Z.ai GLM-5.1 在編碼、數學及 STEM 任務表現。公司內部調查顯示,逾 90% 受訪開發者將 V4-Pro 列為編碼首選,並針對 Claude Code、OpenClaw 及 CodeBuddy 等框架優化。
V4 關鍵創新在於 100 萬 token 長上下文窗口,足以容納《魔戒》三部曲加《霍比特人》。透過注意力機制改進,模型壓縮舊資訊、聚焦關鍵部分,V4-Pro 在此模式下僅用 V3.2 的 27% 運算力及 10% 記憶體,V4-Flash 更低至 10% 及 7%。這有利於處理龐大代碼庫或長文檔分析。 V4 首度針對中國晶片如 Huawei Ascend 優化,成測試本土 AI 產業脫離 Nvidia 依賴的試金石。
DeepSeek 未給 Nvidia 或 AMD 預覽存取,僅限中國晶片商,Huawei Ascend 950 系列已確認支援。儘管推理階段轉用中國晶片,訓練過程仍部分依賴 Nvidia,未來隨 Ascend 950 量產,V4-Pro 定價預計大幅下降。




