DE

DeepSeek-R1-Lite-Preview

DeepSeek-R1-Lite-Preview

发布时间: 2024-11-20606
模型参数
未披露
上下文长度
128K
中文支持
支持
推理能力

模型基本信息

推理过程
支持
上下文长度
128K tokens
最大输出长度
暂无数据
模型类型
暂无数据
发布时间
2024-11-20
模型文件大小
0GB
推理模式
暂无模式数据

开源和体验地址

代码开源状态
预训练权重开源
DEEPSEEK LICENSE AGREEMENT- 免费商用授权
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址

官方介绍与博客

API接口信息

接口速度
暂无数据
暂无公开的 API 定价信息。

评测得分

当前尚无可展示的评测数据。

发布机构

模型解读

DeepSeek-R1-Lite-Preview是DeepSeek发布的一个推理大模型,对标的是OpenAI的o1模型(参考: https://www.datalearner.com/blog/1051726184271628 )。官方宣称其在高难度推理问题上表现相比较o1模型非常具有竞争力,此外,该模型的思考过程还是公开的。


性能表现

在技术领域表现出色,尤其是高级数学(MATH-500 得分 91.6)和编程竞赛(Codeforces 得分 1450),超越了 OpenAI o1-preview 和 Claude 3.5 Sonnet 等竞争对手。然而,在一般知识和逻辑推理上相对较弱,例如 GPQA Diamond 和 Zebra Logic 得分低于 OpenAI 的同类模型​。


功能亮点

透明推理能力是其主要特点。与 ChatGPT 不同,该模型可以展示逐步推理的详细过程,提高了回答的可解释性和可信度​。相比OpenAI的o1模型,在特定技术任务中具有明显优势,但在处理速度方面稍逊。例如,虽然解决问题的时间比 ChatGPT 更长,但其逐步推理更适合复杂问题​。


当前,该模型还未开源,但是官方宣布未来会开源,目前可以在官网使用:DeepSeek官方提供DeepSeek-R1-Lite-Preview模型每日 50 条消息的限制,并通过 "Deep Think" 功能支持逻辑顺序性较强的问题解决。