据动察 Beating监测,DeepSeek V4 API 已同步上线 V4-Pro 和 V4-Flash,官方公众号也已公布定价与算力规划。
V4-Flash:直接替代 V3.2,降价且上下文更大
V4-Flash 作为替代方案,直接承接 V3.2(deepseek-chat) 的位置:不仅没有涨价,部分价格还出现下调。
- 缓存命中输入:0.2 元 / 百万 token(不变)
- 缓存未命中输入:从 2 元降至 1 元(降 50%)
- 输出:从 3 元降至 2 元(降 33%)
- 上下文长度:从 128K 扩展到 1M
这意味着:在更低的价格区间下,获得 8 倍左右的上下文规模。
同时,deepseek-chat 与 deepseek-reasoner 两个旧模型名将于 2026 年 7 月 24 日停用;届时:
- deepseek-chat 指向 V4-Flash 的 非思考模式
- deepseek-reasoner 指向 V4-Flash 的 思考模式
V4-Pro:全新高端档位,当前吞吐受限,后续或大幅下调
V4-Pro 是 DeepSeek 新增的全新高端服务档位,定价如下:
- 缓存命中输入:1 元 / 百万 token
- 缓存未命中输入:12 元 / 百万 token
- 输出:24 元 / 百万 token
根据信息整理,V4-Pro 的输出价格是 V3.2 的 8 倍。
DeepSeek 在定价表注释中解释,由于 高端算力受限,Pro 的服务吞吐目前十分有限。预计在下半年 昇腾 950 超节点批量上市 后,Pro 的价格会进行 大幅下调。
两款模型均支持非思考 / 思考模式,思考强度可调
无论是 V4-Flash 还是 V4-Pro,两款模型均支持:
- 非思考模式
- 思考模式
其中思考模式可通过 reasoning_effort 参数设置强度,提供 high / max 两档。
官方口径:1M 上下文将成为标配
DeepSeek 在公告中表示:“从现在开始,1M 上下文将是 DeepSeek 所有官方服务的标配。”
原创文章,作者:admin,如若转载,请注明出处:https://www.23btc.com/174220/


