De

DeciLM-7B

基础大模型

DeciLM-7B

发布时间: 2023-12-12

模型参数(Parameters)
70.4
最高上下文长度(Context Length)
8K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

8K tokens

最长输出结果
暂无数据
模型类型

基础大模型

发布时间

2023-12-12

模型预文件大小

14.09

开源和体验地址

代码开源状态
预训练权重开源
Apache 2.0 - 免费商用授权
GitHub 源码
暂无GitHub开源地址
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

API接口信息

接口速度(满分5分)
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

DeciLM-7B模型在各大评测榜单的评分

发布机构

模型介绍

DeciLM-7B是由Deci公司开源的一个70亿参数规模的大模型。这个模型最大的特点是运行速度非常快,但同时也是这个参数规模的大模型中评测基准最高的模型。


根据官方的描述,DeciLM-7B在各项评测基准中都有不俗的表现。如下表所示,DeciLM-7B模型和Mistral-7B模型的水平基本相当,其中ARC、MMLU、Truthful QA的得分比Mistral-7B略低,其它都比它好。而总的均值则是比Mistral-7B略好,远超Llama2-7B

模型LeaderboardARCHellaSwagMMLUTruthful QAWinograndeGSMBK
DecilLM-7B-instruct63.1961.0182.3760.24 49.7579.7246.02
DeciLM 7B-Base61.5559.3982.5159.7640.3379.9547.38
Mistral-7B-v0.160.9759.9883.3164.1442.1578.3737.83
Vicuna-13B-v1.555.4157.0881.2456.6751.5174.6611.30
Llama 2 13B-chat-hf54.9159.0481.9454.6444.1274.5115.24
Llama 2-7B-hf50.9753.0778.5946.8738.7674.0314.48


而在DataLearnerAI收集的大模型评测排行榜的结果中,DeciLM-7B的效果也是很明显的,在70亿参数规模中排名很靠前:


详情参考: https://www.datalearner.com/ai-models/llm-evaluation?modelSize=7b 



而基于PyTorch实现的DeciLM-7B的速度则是正常情况下7B模型的好几倍。如下图所示,在A100上,DeciLM-7B每秒生成的tokens数量达到328个,是Mistral 7B的1.83倍,是Llama2-7B的2.39倍!






关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat