DeepSeek LLM 67B Chat
DeepSeek LLM 67B Chat
模型参数
670.0亿
上下文长度
4K
中文支持
支持
推理能力
模型基本信息
推理过程
不支持
上下文长度
4K tokens
最大输出长度
暂无数据
模型类型
聊天大模型
发布时间
2023-11-29
模型文件大小
134GB
MoE架构
否
总参数 / 激活参数
670.0 亿 / 不涉及
知识截止
暂无数据
推理模式
暂无模式数据
开源和体验地址
官方介绍与博客
DataLearnerAI博客
暂无介绍博客
API接口信息
接口速度
暂无数据
暂无公开的 API 定价信息。
评测得分
当前尚无可展示的评测数据。
发布机构
DeepSeek-AI
查看发布机构详情 模型解读
DeepSeek LLM 67B Chat是DeepSeekAI开源的一个大语言模型。DeepSeekAI是中国知名私募幻方量化旗下的一个人工智能大模型企业。
DeepSeek LLM 67B Chat是他们开源的一个670亿参数版本的大语言模型,其效果与LLaMA2-70B差不多。但是中文任务评测结果明显好于LLaMA2-70B。DeepSeek LLM模型本身包含了四个版本,2个参数规模等级,分别是7B和67B,而模型本身区分Base版本的基座模型和对话调优的Chat版本。
DeepSeek LLM 67B Chat这里说的是670亿参数的基座版本。DeepSeekLLM四个版本的评测数据如下:
| Model | TriviaQA | MMLU | GSM8K | HumanEval | BBH | C-Eval | CMMLU | ChineseQA |
|---|---|---|---|---|---|---|---|---|
| DeepSeek LLM 7B Base | 59.7 | 48.2 | 17.4 | 26.2 | 39.5 | 45.0 | 47.2 | 78.0 |
| DeepSeek LLM 67B Base | 78.9 | 71.3 | 63.4 | 42.7 | 68.7 | 66.1 | 70.8 | 87.6 |
| DeepSeek LLM 7B Chat | 57.9 | 49.4 | 62.6 | 48.2 | 42.3 | 47.0 | 49.7 | 75.0 |
| DeepSeek LLM 67B Chat | 81.5 | 71.1 | 84.1 | 73.8 | 71.7 | 65.2 | 67.8 | 85.1 |
| LLaMA-2-7B | 63.8 | 45.8 | 15.5 | 14.6 | 38.5 | 33.9 | 32.6 | 21.5 |
| LLaMA-2-70B | 79.5 | 84.0 | 58.4 | 28.7 | 62.9 | 51.4 | 53.1 | 50.2 |
四个版本模型信息卡如下:
| 模型名称 | DataLearnerAI模型信息卡地址 |
|---|---|
| DeepSeek LLM 7B Base | https://www.datalearner.com/ai-models/pretrained-models/deepseek-llm-7b-base |
| DeepSeek LLM 67B Base | 78.9 |
| DeepSeek LLM 7B Chat | https://www.datalearner.com/ai-models/pretrained-models/deepseek-llm-7b-chat |
| DeepSeek LLM 67B Chat | 81.5 |
DataLearner 官方微信
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
