DataLearner 标志DataLearnerAI
最新AI资讯
大模型排行榜
大模型评测基准
大模型列表
大模型对比
资源中心
工具
语言中文
DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
页面导航
目录
大模型列表DeepSeek-V4-Flash
DE

DeepSeek-V4-Flash

推理大模型

DeepSeek V4 Flash

发布时间: 2026-04-24更新于: 2026-04-24 13:39:57.266知识截止: 2025-05218
在线体验GitHubHugging FaceCompare
模型参数
2840.0亿
上下文长度
1M
中文支持
支持
推理能力

DeepSeek V4 Flash 是由 DeepSeek-AI 发布的 AI 模型,发布时间为 2026-04-24,定位为 推理大模型,参数规模约为 2840.0B,上下文长度为 1M,采用 MIT License 许可。

数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法

DeepSeek-V4-Flash

模型基本信息

推理过程
支持
思考模式
思考水平 · 最高 (Max) (默认)常规模式思考水平 · 高 (High)
上下文长度
1M tokens
最大输出长度
384000 tokens
模型类型
推理大模型
发布时间
2026-04-24
模型文件大小
暂无数据
MoE架构
是
总参数 / 激活参数
2840.0 亿 / 130 亿
知识截止
2025-05
DeepSeek-V4-Flash

开源和体验地址

代码开源状态
MIT License
预训练权重开源
MIT License- 免费商用授权
GitHub 源码
暂无GitHub开源地址
Hugging Face
https://huggingface.co/collections/deepseek-ai/deepseek-v4
在线体验
https://chat.deepseek.com
DeepSeek-V4-Flash

官方介绍与博客

官方论文
DeepSeek-V4 Technical Report
DataLearnerAI博客
暂无介绍博客
DeepSeek-V4-Flash

API接口信息

接口速度
4/5
💡默认单位:$/100万 tokens。若计费单位不同,则以供应商公开的原始标注为准。
了解不同定价模式详解
标准模式
类型适用条件输入输出
文本-$0.140/ 1M$0.280/ 1M
缓存定价Prompt缓存
类型有效期写入读取
文本1d$0.140/ 1M$0.028/ 1M
DeepSeek-V4-Flash

评测结果

DeepSeek-V4-Flash 当前已收录的代表性评测结果包括 LiveCodeBench(4 / 118,得分 91.60)、MMLU Pro(13 / 124,得分 86.40)、IMO-AnswerBench(2 / 17,得分 88.40)。 本页还汇总了参数规模、上下文长度与 API 价格,便于结合评测结果与部署约束一起判断模型适配度。

思考模式
全部常规思考
思考模式细分 (2)
全部默认 (最高)深度
工具使用
全部使用工具不使用工具
联网能力
全部离线联网

综合评估

共 6 项评测
评测名称 / 模式
得分
排名/总数
GPQA Diamond
高
87.40
32 / 175
GPQA Diamond
深度
88.10
25 / 175
MMLU Pro
高
86.40
13 / 124
MMLU Pro
深度
86.20
14 / 124
HLE
高
29.40
69 / 148
HLE
深度
34.80
53 / 148

编程与软件工程

共 10 项评测
评测名称 / 模式
得分
排名/总数
CodeForces
高
2816
5 / 16
CodeForces
深度
3052
3 / 16
LiveCodeBench
高
88.40
7 / 118
LiveCodeBench
深度
91.60
4 / 118
SWE-bench Verified
高工具
78.60
17 / 103
SWE-bench Verified
深度工具
79
15 / 103
SWE-bench Multilingual
高工具
70.20
11 / 17
SWE-bench Multilingual
深度工具
73.30
7 / 17
SWE-Bench Pro - Public
高工具
52.30
21 / 36
SWE-Bench Pro - Public
深度工具
52.60
19 / 36

AI Agent - 工具使用

共 2 项评测
评测名称 / 模式
得分
排名/总数
Terminal Bench 2.0
高工具
56.60
24 / 43
Terminal Bench 2.0
深度工具
56.90
22 / 43

数学推理

共 2 项评测
评测名称 / 模式
得分
排名/总数
IMO-AnswerBench
高
85.10
7 / 17
IMO-AnswerBench
深度
88.40
2 / 17

生产力知识

共 1 项评测
评测名称 / 模式
得分
排名/总数
GDPval-AA
深度工具
1395
4 / 20
查看评测深度分析与其他模型对比
DeepSeek-V4-Flash

发布机构

DeepSeek-AI
DeepSeek-AI
查看发布机构详情
DeepSeek V4 Flash

模型解读

DeepSeek-V4-Flash 预览版:普惠经济的百万上下文大模型

DeepSeek-V4-Flash 是 DeepSeek 于 2026 年 4 月 24 日正式发布并开源的旗舰级大语言模型预览版,属于 DeepSeek-V4 系列的高性价比型号。该模型旨在提供远低于行业平均水平的推理成本,同时保持百万级上下文、Agent 能力和顶级推理性能,适合需要高吞吐、低成本的生产级应用。

架构与技术规格

DeepSeek-V4-Flash 采用了与 Pro 版本一脉相承的混合专家(MoE)架构,总参数量为 2840 亿(284B),每次推理激活参数约 130 亿(13B)。其上下文窗口原生支持 100 万 token(1M),最大输出长度可达 384K token。V4 系列均引入了创新的混合注意力机制,融合了压缩稀疏注意力(CSA)与重压缩注意力(HCA),并结合 DSA 稀疏注意力,这使得处理百万级上下文时的计算和显存需求大幅降低。其中,V4-Flash 预训练数据量高达 32 万亿 token,并同样采用了 Muon 优化器、流形约束超连接(mHC)等新型训练策略。

核心能力与支持模态

DeepSeek-V4-Flash 目前为纯文本模型,不支持视觉输入或图像识别等任务。其核心能力聚焦于 Agent 能力和推理性能:V4-Flash 在提供足够思考预算后,其推理能力可极为接近 Pro 版本,但在纯知识性问答和复杂 Agent 任务上受限于参数量,表现略逊于 Pro 版。此外,模型同时支持非思考模式与思考模式,用户可通过 reasoning_effort 参数调节思考强度以应对复杂推理任务。

性能评价

根据官方公布的数据,DeepSeek-V4-Flash 在提供足够推理预算的前提下,其推理能力接近 V4-Pro,但在纯知识和复杂 Agent 任务上受到参数量的限制。官方已将其作为 deepseek-chat 和 deepseek-reasoner 的替代品,这两个旧名称将于 2026 年 7 月 24 日停用。

应用场景与限制

官方推荐场景包括:通用对话、基础文本生成、高并发和低成本的线上服务、Agent 工作流中的低延迟任务。当前局限在于:尚不支持图像等多模态输入;在纯知识和极其复杂的 Agent 任务上性能不如 V4-Pro 等更大的模型;作为预览版,未来 API 的稳定性和功能可能存在调整。

访问方式与许可

模型已全面开源,权重和技术报告可通过 Hugging Face 和魔搭社区获取。许可证采用 MIT License,允许商用、修改和再分发。API 服务已同步上线,开发者通过修改 model_name 为 deepseek-v4-flash 即可调用,兼容 OpenAI ChatCompletions 和 Anthropic 接口格式。此外,旧的 deepseek-chat 和 deepseek-reasoner 名称将分别指向 V4-Flash 的非思考模式和思考模式,直至 2026 年 7 月 24 日弃用。

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码