DeciLM-7B - DeciLM-7B

模型详细情况和参数

DeciLM-7B

模型全称
DeciLM-7B
模型简称
DeciLM-7B
模型类型
基础大模型
发布日期
2023-12-12
预训练文件大小
14.09
是否支持中文(中文优化)
最高支持的上下文长度
8K
模型参数数量(亿)
70.4
模型代码开源协议
Apache 2.0
预训练结果开源商用情况
Apache 2.0 - 免费商用授权
模型GitHub链接
暂无
模型HuggingFace链接
https://huggingface.co/Deci/DeciLM-7B
在线演示地址
暂无
DataLearnerAI的模型介绍
基础模型
无基础模型
发布机构

DeciLM-7B 简介

DeciLM-7B是由Deci公司开源的一个70亿参数规模的大模型。这个模型最大的特点是运行速度非常快,但同时也是这个参数规模的大模型中评测基准最高的模型。


根据官方的描述,DeciLM-7B在各项评测基准中都有不俗的表现。如下表所示,DeciLM-7B模型和Mistral-7B模型的水平基本相当,其中ARC、MMLU、Truthful QA的得分比Mistral-7B略低,其它都比它好。而总的均值则是比Mistral-7B略好,远超Llama2-7B

模型LeaderboardARCHellaSwagMMLUTruthful QAWinograndeGSMBK
DecilLM-7B-instruct63.1961.0182.3760.24 49.7579.7246.02
DeciLM 7B-Base61.5559.3982.5159.7640.3379.9547.38
Mistral-7B-v0.160.9759.9883.3164.1442.1578.3737.83
Vicuna-13B-v1.555.4157.0881.2456.6751.5174.6611.30
Llama 2 13B-chat-hf54.9159.0481.9454.6444.1274.5115.24
Llama 2-7B-hf50.9753.0778.5946.8738.7674.0314.48


而在DataLearnerAI收集的大模型评测排行榜的结果中,DeciLM-7B的效果也是很明显的,在70亿参数规模中排名很靠前:


详情参考: https://www.datalearner.com/ai-models/llm-evaluation?modelSize=7b 



而基于PyTorch实现的DeciLM-7B的速度则是正常情况下7B模型的好几倍。如下图所示,在A100上,DeciLM-7B每秒生成的tokens数量达到328个,是Mistral 7B的1.83倍,是Llama2-7B的2.39倍!






欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送

DeciLM-7B所属的领域
自然语言处理

自然语言处理

Natural Language Process

35个资源

DeciLM-7B相关的任务
问答系统

问答系统

Question Answering

35个资源