4月24日,DeepSeek发布了其新系列模型DeepSeek-V4的预览版本,并进行了开源。
DeepSeek-V4具备超过百万字的上下文理解能力,在代理能力、知识获取和推理性能方面处于国内及开源领域的前列。
该模型包括两个版本:DeepSeek-V4-Pro和DeepSeek-V4-Flash。

API服务已更新,用户只需将Model_name更改为deepseek-v4-Pro或deepseek-v4-flash即可调用。
DeepSeek-V4采用了一种新型的注意力机制,通过压缩Token维度并结合DSA稀疏注意力,展现出卓越的长上下文能力,并显著降低了计算和存储需求。百万字上下文将作为DeepSeek所有官方服务的标准配置。
具体而言,DeepSeek-V4-Pro的代理能力有了显著提升。在Agentic Coding评测中,V4-Pro达到了当前开源模型的最佳水平,并在其他相关评测中表现优异。目前,DeepSeek-V4已被公司内部员工作为Agentic Coding模型使用,使用体验优于Sonnet 4.5,交付质量接近OpUS 4.6,但与OpUS 4.6的思维方式仍有差距。
在全球知识评测中,DeepSeek-V4-Pro远超其他开源模型,仅次于顶尖闭源模型Gemini-Pro-3.1。
在数学、STEM及竞赛型代码的评测中,DeepSeek-V4-Pro超过了所有已发布的开源模型,取得了与顶级闭源模型相当的优异成绩。
相比之下,DeepSeek-V4-Flash在全球知识储备方面较弱,但推理能力接近。由于模型参数和激活较少,V4-Flash能提供更快速和经济的API服务。
在Agent评测中,DeepSeek-V4-Flash在简单任务上的表现与DeepSeek-V4-Pro相当,但在难度较大的任务上仍显不足。
