DeepSeek V4 Flash
DeepSeek V4 Flash 是由 DeepSeek-AI 发布的 AI 模型,发布时间为 2026-04-24,定位为 推理大模型,参数规模约为 2840.0B,上下文长度为 1M,采用 MIT License 许可。
数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法
DeepSeek-V4-Flash 当前已收录的代表性评测结果包括 LiveCodeBench(4 / 118,得分 91.60)、MMLU Pro(13 / 124,得分 86.40)、IMO-AnswerBench(2 / 17,得分 88.40)。 本页还汇总了参数规模、上下文长度与 API 价格,便于结合评测结果与部署约束一起判断模型适配度。
DeepSeek-V4-Flash 是 DeepSeek 于 2026 年 4 月 24 日正式发布并开源的旗舰级大语言模型预览版,属于 DeepSeek-V4 系列的高性价比型号。该模型旨在提供远低于行业平均水平的推理成本,同时保持百万级上下文、Agent 能力和顶级推理性能,适合需要高吞吐、低成本的生产级应用。
DeepSeek-V4-Flash 采用了与 Pro 版本一脉相承的混合专家(MoE)架构,总参数量为 2840 亿(284B),每次推理激活参数约 130 亿(13B)。其上下文窗口原生支持 100 万 token(1M),最大输出长度可达 384K token。V4 系列均引入了创新的混合注意力机制,融合了压缩稀疏注意力(CSA)与重压缩注意力(HCA),并结合 DSA 稀疏注意力,这使得处理百万级上下文时的计算和显存需求大幅降低。其中,V4-Flash 预训练数据量高达 32 万亿 token,并同样采用了 Muon 优化器、流形约束超连接(mHC)等新型训练策略。
DeepSeek-V4-Flash 目前为纯文本模型,不支持视觉输入或图像识别等任务。其核心能力聚焦于 Agent 能力和推理性能:V4-Flash 在提供足够思考预算后,其推理能力可极为接近 Pro 版本,但在纯知识性问答和复杂 Agent 任务上受限于参数量,表现略逊于 Pro 版。此外,模型同时支持非思考模式与思考模式,用户可通过 reasoning_effort 参数调节思考强度以应对复杂推理任务。
根据官方公布的数据,DeepSeek-V4-Flash 在提供足够推理预算的前提下,其推理能力接近 V4-Pro,但在纯知识和复杂 Agent 任务上受到参数量的限制。官方已将其作为 deepseek-chat 和 deepseek-reasoner 的替代品,这两个旧名称将于 2026 年 7 月 24 日停用。
官方推荐场景包括:通用对话、基础文本生成、高并发和低成本的线上服务、Agent 工作流中的低延迟任务。当前局限在于:尚不支持图像等多模态输入;在纯知识和极其复杂的 Agent 任务上性能不如 V4-Pro 等更大的模型;作为预览版,未来 API 的稳定性和功能可能存在调整。
模型已全面开源,权重和技术报告可通过 Hugging Face 和魔搭社区获取。许可证采用 MIT License,允许商用、修改和再分发。API 服务已同步上线,开发者通过修改 model_name 为 deepseek-v4-flash 即可调用,兼容 OpenAI ChatCompletions 和 Anthropic 接口格式。此外,旧的 deepseek-chat 和 deepseek-reasoner 名称将分别指向 V4-Flash 的非思考模式和思考模式,直至 2026 年 7 月 24 日弃用。
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
