DeepSeek LLM 67B Base
DeepSeek LLM 67B Base is an AI model published by DeepSeek-AI, released on 2023-11-29, for 基础大模型, with 670.0B parameters, and 4K tokens context length, requiring about 134GB storage, under the DEEPSEEK LICENSE AGREEMENT license.
Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology
DeepSeek LLM 67B Chat是DeepSeekAI开源的一个大语言模型。DeepSeekAI是中国知名私募幻方量化旗下的一个人工智能大模型企业。
DeepSeek LLM 67B Chat是他们开源的一个670亿参数版本的大语言模型,其效果与LLaMA2-70B差不多。但是中文任务评测结果明显好于LLaMA2-70B。DeepSeek LLM模型本身包含了四个版本,2个参数规模等级,分别是7B和67B,而模型本身区分Base版本的基座模型和对话调优的Chat版本。
DeepSeek LLM 67B Chat这里说的是670亿参数的基座版本。DeepSeekLLM四个版本的评测数据如下:
| Model | TriviaQA | MMLU | GSM8K | HumanEval | BBH | C-Eval | CMMLU | ChineseQA |
|---|---|---|---|---|---|---|---|---|
| DeepSeek LLM 7B Base | 59.7 | 48.2 | 17.4 | 26.2 | 39.5 | 45.0 | 47.2 | 78.0 |
| DeepSeek LLM 67B Base | 78.9 | 71.3 | 63.4 | 42.7 | 68.7 | 66.1 | 70.8 | 87.6 |
| DeepSeek LLM 7B Chat | 57.9 | 49.4 | 62.6 | 48.2 | 42.3 | 47.0 | 49.7 | 75.0 |
| DeepSeek LLM 67B Chat | 81.5 | 71.1 | 84.1 | 73.8 | 71.7 | 65.2 | 67.8 | 85.1 |
| LLaMA-2-7B | 63.8 | 45.8 | 15.5 | 14.6 | 38.5 | 33.9 | 32.6 | 21.5 |
| LLaMA-2-70B | 79.5 | 84.0 | 58.4 | 28.7 | 62.9 | 51.4 | 53.1 | 50.2 |
四个版本模型信息卡如下:
| 模型名称 | DataLearnerAI模型信息卡地址 |
|---|---|
| DeepSeek LLM 7B Base | https://www.datalearner.com/ai-models/pretrained-models/deepseek-llm-7b-base |
| DeepSeek LLM 67B Base | https://www.datalearner.com/ai-models/pretrained-models/deepseek-llm-67b-base |
| DeepSeek LLM 7B Chat | https://www.datalearner.com/ai-models/pretrained-models/deepseek-llm-7b-chat |
| DeepSeek LLM 67B Chat | https://www.datalearner.com/ai-models/pretrained-models/deepseek-llm-67b-chat |
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
