DataLearner logoDataLearnerAI
Latest AI Insights
Model Evaluations
Model Directory
Model Comparison
Resource Center
Tools

加载中...

DataLearner logoDataLearner AI

A knowledge platform focused on LLM benchmarking, datasets, and practical instruction with continuously updated capability maps.

产品

  • Leaderboards
  • 模型对比
  • Datasets

资源

  • Tutorials
  • Editorial
  • Tool directory

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner curates industry data and case studies so researchers, enterprises, and developers can rely on trustworthy intelligence.

隐私政策服务条款
Page navigation
目录
Model catalogDeepSeek-R1-0528
DE

DeepSeek-R1-0528

DeepSeek-R1-0528

Release date: 2025-05-28更新于: 2025-08-08 15:46:412,307
Live demoGitHubHugging FaceCompare
Parameters
6710.0亿
Context length
64K
Chinese support
Supported
Reasoning ability

Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology

DeepSeek-R1-0528

Model basics

Reasoning traces
Supported
Thinking modes
Thinking modes not supported
Context length
64K tokens
Max output length
64000 tokens
Model type
推理大模型
Release date
2025-05-28
Model file size
685GB
MoE architecture
Yes
Total params / Active params
6710.0B / 370B
Knowledge cutoff
No data
DeepSeek-R1-0528

Open source & experience

Code license
MIT License
Weights license
MIT License- 免费商用授权
GitHub repo
https://github.com/deepseek-ai/DeepSeek-R1
Hugging Face
https://huggingface.co/deepseek-ai/DeepSeek-R1-0528
Live demo
https://chat.deepseek.com/
DeepSeek-R1-0528

Official resources

Paper
DeepSeek-R1-0528 Release
DataLearnerAI blog
No blog post yet
DeepSeek-R1-0528

API details

API speed
2/5
💡Default unit: $/1M tokens. If vendors use other units, follow their published pricing.
Standard pricingStandard
ModalityInputOutput
Text$0.55$2.19
DeepSeek-R1-0528

Benchmark Results

Thinking
All modesThinking
Thinking mode details (1)
All thinking modesDefault (Medium)

综合评估

5 evaluations
Benchmark / mode
Score
Rank/total
MMLU Pro
Medium
85
16 / 114
GPQA Diamond
Medium
81
52 / 160
ARC-AGI
Medium
21.20
41 / 49
HLE
Medium
17.70
72 / 114
ARC-AGI-2
Medium
1.30
37 / 41

常识问答

1 evaluations
Benchmark / mode
Score
Rank/total
SimpleQA
Medium
27.80
25 / 45

编程与软件工程

2 evaluations
Benchmark / mode
Score
Rank/total
LiveCodeBench
Medium
73.30
33 / 106
SWE-bench Verified
Medium
57.60
65 / 90

数学推理

5 evaluations
Benchmark / mode
Score
Rank/total
MATH-500
Medium
98
7 / 43
AIME 2024
Medium
91.40
13 / 62
AIME2025
Medium
87.50
44 / 107
IMO-ProofBench
Medium
29
7 / 16
IMO-ProofBench Advanced
Medium
3.80
8 / 8

写作和创作

1 evaluations
Benchmark / mode
Score
Rank/total
Creative Writing
Medium
86.25
4 / 22

AI Agent - 工具使用

1 evaluations
Benchmark / mode
Score
Rank/total
Terminal-Bench
Medium
5.70
35 / 35

常识推理

1 evaluations
Benchmark / mode
Score
Rank/total
Simple Bench
Medium
40.80
17 / 27

Agent能力评测

1 evaluations
Benchmark / mode
Score
Rank/total
Aider-Polyglot
Medium
71.40
10 / 26
查看评测深度分析与其他模型对比
DeepSeek-R1-0528

Publisher

DeepSeek-AI
DeepSeek-AI
View publisher details
DeepSeek-R1-0528

Model Overview

DeepSeek R1-0528 于 2025 年 5 月 28 日发布,是深度求索 R1 系列推理模型的最新更新,定位为开源 AI 领域的竞争者。本文基于 Hugging Face、OSCHINA、IT之家、cnBeta 和其他权威来源,详细分析其规格、性能、能力和上下文因素。

发布细节与可用性

模型于 2025 年 5 月 28 日在 Hugging Face 上发布,采用 MIT 许可证,确保完全开源,可用于研究和商业应用。发布时无官方公告,描述为“小版本试升级”,由深度求索代表在 WeChat 群中报告。开放用户测试,下载量为零,Hugging Face 页面显示创建于 UTC 09:46:42,最后修改于 UTC 18:01:18,获 967 个点赞,标记为文本生成、对话使用和自定义代码等,支持通过 novita、nebius 等提供商推理。

模型规格

深度求索 R1-0528 拥有 6850 亿参数,使用 BF16、F8_E4M3 和 F32 张量类型,safetensors 参数如下:

张量类型参数

BF163,918,786,560

F8_E4M3680,571,043,840

F3241,555,600

总大小为 684,531,386,000,分片分布,未量化,推理设置为“暖”,支持 2 个 finetunes 和 6 个 quantizations,Hugging Face 讨论有 59 个线程。

性能与基准

在 LiveCodeBench 上,接近 OpenAI o3 和 o4 mini,领先于 xAI 的 Grok 3 mini 和阿里巴巴的 Qwen 3。Extended NYT Connections 得分从 38.6 升至 49.8,接近 Claude Opus 4 Thinking 16k,但低于 OpenAI o 系列。用户反馈(如 X post by @chetaslua)称其推理深度和写作自然,适合复杂任务,推理时间优于 o3 和 o4 mini。

能力与改进

模型基于 DeepSeek-V3-Base,初始化自 LLaMA 和 Qwen,微调于合成数据,增强多功能性。在编程和设计方面表现优异,生成高质量代码,特别在前端页面和动态动画上,处理复杂提示能力强。用户观察显示推理深度和自然写作风格,适合 30-60 分钟的单任务处理。

成本与效率

训练成本 600 万美元,远低于 GPT-4 的 1 亿美元,使用计算资源仅为 Llama 3.1 的十分之一,性价比高,适合资源有限的组织和研究人员。

上下文因素与用户反馈

深度求索总部位于浙江杭州,由 High-Flyer 资助,专注于研究,规避中国面向消费者的 AI 法规。招聘强调技能,招募背景多样人员,包括诗歌和数学专家。X post by @chetaslua 称其性能与 OpenAI o1 相当,胜过 Claude 3.5 Sonnet 和 o1-mini,2025 年 5 月 28 日的反馈显示改进明显。

限制与未来期望

缺乏模型卡限制训练数据和偏见理解,预计将发布完整模型卡。当前下载量零,但通过多个推理提供商可用,表明兴趣增长。

结论

DeepSeek R1-0528 是 6850 亿参数模型,推理和编程能力强,成本效益高,采用 MIT 许可证,定位为开源 AI 领导者。

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码