ST

StableLM 2 Zephyr-1.6B

StableLM 2 Zephyr-1.6B

发布时间: 2024-01-19404
模型参数
16.0亿
上下文长度
2K
中文支持
不支持
推理能力

模型基本信息

推理过程
不支持
上下文长度
2K tokens
最大输出长度
暂无数据
模型类型
暂无数据
发布时间
2024-01-19
模型文件大小
3.29GB
MoE架构
总参数 / 激活参数
16.0 亿 / 不涉及
知识截止
暂无数据
推理模式
暂无模式数据

开源和体验地址

代码开源状态
预训练权重开源
Stability AI Membership- 收费商用授权
GitHub 源码
暂无GitHub开源地址
在线体验
暂无在线体验地址

官方介绍与博客

DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度
暂无数据
暂无公开的 API 定价信息。

评测得分

当前尚无可展示的评测数据。

发布机构

模型解读

StableLM 2 Zephyr-1.6B是由StabilityAI发布的一个16亿参数规模的大语言模型,是在StableLM2-1.6B基础上做对齐训练得到的,采用的是Zephyr 7B β一样的方法,因此用的是Zephyr名称。相比基座模型,这个版本的模型各方面都有所提升。


相比较常规的大语言模型,这个模型参数仅16亿,可以在移动端运行。但是它的性能效果与几个月前70亿参数规模差不多。


该模型的主要特点如下:

  • 16亿参数规模,可以在移动端运行,原始模型文件大小仅3.29GB;
  • 支持多国语言,包括英语、西班牙语、德语、意大利语、法语、葡萄牙语和荷兰语
  • 性能良好,16亿参数规模,MMLU评分38.93,超过了70亿参数的MosaicML的MPT-7B。在MT-Bench得分上超过了Qwen-1.8B和Phi-2模型


StableLM2-1.6B模型的评测结果

官方公布了StableLM2-1.6B在不同评测任务上的评测结果



MT-Bench的评测结果如下:


模型参数规模MT-Bench
Mistral-7B-Instruct-v0.270亿7.61
Llama2-Chat700亿6.86
MPT-30B-Chat300亿6.39
stablelm-zephyr-3b30亿6.64
stablelm-2-zephyr-1_6b16亿5.42
Falcon-40B-Instruct400亿5.17
Qwen-1.8B-Chat18亿4.95
dolphin-2.6-phi-227亿4.93
phi-227亿4.29
TinyLlama-1.1B-Chat-v1.011亿3.46



不过这个模型非常有意思的是如果个人可以非商用使用,用于科研和个人目的。但是如果你要商用,但是年收入低于100万美元或者月活低于100万用户,即便是0,只要商用也要加入StabilityAI的会员计划,每个月20美元。超过这个规模的商用就需要与官方联系签合同。也就是说,这不是一个免费商用授权的大模型。

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码