StableLM 2 Zephyr-1.6B - StableLM 2 Zephyr-1.6B

模型详细情况和参数

StableLM 2 Zephyr-1.6B

模型全称
StableLM 2 Zephyr-1.6B
模型简称
StableLM 2 Zephyr-1.6B
模型类型
聊天大模型
发布日期
2024-01-19
预训练文件大小
3.29GB
是否支持中文(中文优化)
最高支持的上下文长度
2K
模型参数数量(亿)
16.0
模型代码开源协议
Stability AI Membership
预训练结果开源商用情况
Stability AI Membership - 收费商用授权
模型GitHub链接
暂无
在线演示地址
暂无
DataLearnerAI的模型介绍
官方博客论文
Introducing Stable LM 2 1.6B
基础模型
无基础模型
发布机构

StableLM 2 Zephyr-1.6B 简介

StableLM 2 Zephyr-1.6B是由StabilityAI发布的一个16亿参数规模的大语言模型,是在StableLM2-1.6B基础上做对齐训练得到的,采用的是Zephyr 7B β一样的方法,因此用的是Zephyr名称。相比基座模型,这个版本的模型各方面都有所提升。


相比较常规的大语言模型,这个模型参数仅16亿,可以在移动端运行。但是它的性能效果与几个月前70亿参数规模差不多。


该模型的主要特点如下:

  • 16亿参数规模,可以在移动端运行,原始模型文件大小仅3.29GB;
  • 支持多国语言,包括英语、西班牙语、德语、意大利语、法语、葡萄牙语和荷兰语
  • 性能良好,16亿参数规模,MMLU评分38.93,超过了70亿参数的MosaicML的MPT-7B。在MT-Bench得分上超过了Qwen-1.8B和Phi-2模型


StableLM2-1.6B模型的评测结果

官方公布了StableLM2-1.6B在不同评测任务上的评测结果



MT-Bench的评测结果如下:


模型参数规模MT-Bench
Mistral-7B-Instruct-v0.270亿7.61
Llama2-Chat700亿6.86
MPT-30B-Chat300亿6.39
stablelm-zephyr-3b30亿6.64
stablelm-2-zephyr-1_6b16亿5.42
Falcon-40B-Instruct400亿5.17
Qwen-1.8B-Chat18亿4.95
dolphin-2.6-phi-227亿4.93
phi-227亿4.29
TinyLlama-1.1B-Chat-v1.011亿3.46



不过这个模型非常有意思的是如果个人可以非商用使用,用于科研和个人目的。但是如果你要商用,但是年收入低于100万美元或者月活低于100万用户,即便是0,只要商用也要加入StabilityAI的会员计划,每个月20美元。超过这个规模的商用就需要与官方联系签合同。也就是说,这不是一个免费商用授权的大模型。

欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送

StableLM 2 Zephyr-1.6B所属的领域
自然语言处理

自然语言处理

Natural Language Process

35个资源

StableLM 2 Zephyr-1.6B相关的任务
问答系统

问答系统

Question Answering

35个资源