DE

DeciLM-7B

DeciLM-7B

发布时间: 2023-12-12428
模型参数
70.4亿
上下文长度
8K
中文支持
不支持
推理能力

模型基本信息

推理过程
不支持
上下文长度
8K tokens
最大输出长度
暂无数据
模型类型
暂无数据
发布时间
2023-12-12
模型文件大小
14.09
MoE架构
总参数 / 激活参数
70.4 亿 / 不涉及
知识截止
暂无数据
推理模式
暂无模式数据

开源和体验地址

代码开源状态
预训练权重开源
Apache 2.0- 免费商用授权
GitHub 源码
暂无GitHub开源地址
在线体验
暂无在线体验地址

官方介绍与博客

API接口信息

接口速度
暂无数据
暂无公开的 API 定价信息。

评测得分

当前尚无可展示的评测数据。

发布机构

模型解读

DeciLM-7B是由Deci公司开源的一个70亿参数规模的大模型。这个模型最大的特点是运行速度非常快,但同时也是这个参数规模的大模型中评测基准最高的模型。


根据官方的描述,DeciLM-7B在各项评测基准中都有不俗的表现。如下表所示,DeciLM-7B模型和Mistral-7B模型的水平基本相当,其中ARC、MMLU、Truthful QA的得分比Mistral-7B略低,其它都比它好。而总的均值则是比Mistral-7B略好,远超Llama2-7B

模型LeaderboardARCHellaSwagMMLUTruthful QAWinograndeGSMBK
DecilLM-7B-instruct63.1961.0182.3760.24 49.7579.7246.02
DeciLM 7B-Base61.5559.3982.5159.7640.3379.9547.38
Mistral-7B-v0.160.9759.9883.3164.1442.1578.3737.83
Vicuna-13B-v1.555.4157.0881.2456.6751.5174.6611.30
Llama 2 13B-chat-hf54.9159.0481.9454.6444.1274.5115.24
Llama 2-7B-hf50.9753.0778.5946.8738.7674.0314.48


而在DataLearnerAI收集的大模型评测排行榜的结果中,DeciLM-7B的效果也是很明显的,在70亿参数规模中排名很靠前:


详情参考: https://www.datalearner.com/ai-models/llm-evaluation?modelSize=7b 



而基于PyTorch实现的DeciLM-7B的速度则是正常情况下7B模型的好几倍。如下图所示,在A100上,DeciLM-7B每秒生成的tokens数量达到328个,是Mistral 7B的1.83倍,是Llama2-7B的2.39倍!






DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码