DeepSeek 正式推出全新系列模型 DeepSeek-V4 的預覽版本,並同步開源。該模型支援百萬字長度上下文中,在 Agent 能力、世界知識及推理性能上,平均達到現有國內與開源領域的領先水準。模型按大小分為 deepseek-v4-flash 及 deepseek-v4-pro 兩個版本。即日起登入官網或官方 App,即可對話最新 DeepSeek-V4,體驗 1M 字長度上下文的嶄新能力。
API 服務已同步更新,透過修改 model_name 為 deepseek-v4-pro 或 deepseek-v4-flash 即可調用。
性能表現與技術創新
相較前代模型,DeepSeek-V4-Pro 的 Agent 能力顯著提升。在 Agentic Coding 評測中,V4-Pro 已達開源模型最佳水準,並在其他 Agent 相關評測中同樣表現優異。目前 DeepSeek-V4 已成為公司內部員工使用的 Agentic Coding 模型,反饋體驗優於 Sonnet 4.5,交互質量接近 Opus 4.6 非思考模式,但與 Opus 4.
6 思考模式仍存一定差距。 據介紹,DeepSeek-V4 開創全新注意力機制,在 token 維度進行壓縮,結合 DSA 稀疏注意力 (DeepSeek Sparse Attention),實現全球領先的長上下文能力,且相較傳統方法大幅降低計算及顯存需求。從現在起,1M (一百萬) 上下文將成為 DeepSeek 所有官方服務的標配。V4-Pro 與 V4-Flash 最大上下文長度為 1M,同時支援非思考模式與思考模式,其中思考模式支援 reasoning_effort 參數設定思考強度 (
high/max)。對於複雜 Agent 場景,建議使用思考模式並設定強度為 max。 目前,DeepSeek API 已同步上線 V4-Pro 與 V4-Flash,支援 OpenAI ChatCompletions 介面與 Anthropic 介面。存取新模型時,base_url 不變,model 參數需改為 deepseek-v4-pro 或 deepseek-v4-flash。




