StableLM 2 Zephyr-1.6B
StableLM 2 Zephyr-1.6B
模型参数
16.0亿
上下文长度
2K
中文支持
不支持
推理能力
模型基本信息
推理过程
不支持
上下文长度
2K tokens
最大输出长度
暂无数据
模型类型
暂无数据
发布时间
2024-01-19
模型文件大小
3.29GB
MoE架构
否
总参数 / 激活参数
16.0 亿 / 不涉及
知识截止
暂无数据
推理模式
暂无模式数据
开源和体验地址
官方介绍与博客
DataLearnerAI博客
暂无介绍博客
API接口信息
接口速度
暂无数据
暂无公开的 API 定价信息。
评测得分
当前尚无可展示的评测数据。
发布机构
Stability AI
查看发布机构详情 模型解读
StableLM 2 Zephyr-1.6B是由StabilityAI发布的一个16亿参数规模的大语言模型,是在StableLM2-1.6B基础上做对齐训练得到的,采用的是Zephyr 7B β一样的方法,因此用的是Zephyr名称。相比基座模型,这个版本的模型各方面都有所提升。
相比较常规的大语言模型,这个模型参数仅16亿,可以在移动端运行。但是它的性能效果与几个月前70亿参数规模差不多。
该模型的主要特点如下:
- 16亿参数规模,可以在移动端运行,原始模型文件大小仅3.29GB;
- 支持多国语言,包括英语、西班牙语、德语、意大利语、法语、葡萄牙语和荷兰语;
- 性能良好,16亿参数规模,MMLU评分38.93,超过了70亿参数的MosaicML的MPT-7B。在MT-Bench得分上超过了Qwen-1.8B和Phi-2模型。
StableLM2-1.6B模型的评测结果
官方公布了StableLM2-1.6B在不同评测任务上的评测结果
MT-Bench的评测结果如下:
| 模型 | 参数规模 | MT-Bench |
|---|---|---|
| Mistral-7B-Instruct-v0.2 | 70亿 | 7.61 |
| Llama2-Chat | 700亿 | 6.86 |
| MPT-30B-Chat | 300亿 | 6.39 |
| stablelm-zephyr-3b | 30亿 | 6.64 |
| stablelm-2-zephyr-1_6b | 16亿 | 5.42 |
| Falcon-40B-Instruct | 400亿 | 5.17 |
| Qwen-1.8B-Chat | 18亿 | 4.95 |
| dolphin-2.6-phi-2 | 27亿 | 4.93 |
| phi-2 | 27亿 | 4.29 |
| TinyLlama-1.1B-Chat-v1.0 | 11亿 | 3.46 |
不过这个模型非常有意思的是如果个人可以非商用使用,用于科研和个人目的。但是如果你要商用,但是年收入低于100万美元或者月活低于100万用户,即便是0,只要商用也要加入StabilityAI的会员计划,每个月20美元。超过这个规模的商用就需要与官方联系签合同。也就是说,这不是一个免费商用授权的大模型。
DataLearner 官方微信
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
