StableLM2-12B - StableLM2-12B

模型详细情况和参数

StableLM2-12B

模型全称
StableLM2-12B
模型简称
StableLM2-12B
模型类型
基础大模型
发布日期
2024-04-08
预训练文件大小
24GB
是否支持中文(中文优化)
最高支持的上下文长度
4K
模型参数数量(亿)
120.0
模型代码开源协议
Stability AI Membership
预训练结果开源商用情况
Stability AI Membership - 收费商用授权
模型GitHub链接
暂无
在线演示地址
暂无
DataLearnerAI的模型介绍
官方博客论文
Introducing Stable LM 2 12B
基础模型
无基础模型
发布机构

StableLM2-12B 简介

Stability AI最新推出了Stable LM 2系列中的120亿参数多语言语言模型。这是一款同时包含基础版本和针对指令进行微调版本的模型。该模型在英语、西班牙语、德语、意大利语、法语、葡萄牙语和荷兰语7种语言上进行了训练,总计使用了2万亿tokens的语料。


主要特点:

  1. 中等规模但高效:120亿参数的规模使其能够在普通硬件上高效运行(4090的24G显存勉强够用),而性能却可媲美一些大得多的模型。
  2. 多语种支持:覆盖7种主流语言,可用于多种跨语言应用场景。
  3. 指令遵从能力:指令微调版本在工具使用和函数调用等任务上表现出色,非常适合构建检索增强系统等应用。


不过需要注意的是,这个模型需要加入StabilityAI的membership会员才能商用,否则只能研究用。会员一个月20美元即可,也就是说虽然收费,但是也不算贵。


StableLM2-12B的测试结果

基准测试显示,StableLM 2 12B在常见NLP任务上的表现位居同级别模型前列,在保持较小尺寸的同时性能很是优异。其基座版本的模型比140亿参数的Qwen1.5-14B评测结果略低,但是指令优化版本的评测结果则高于Qwen1.5-14B。


下图是指令优化版本和其它模型在MT-Bench上的对比:



其指令优化版本与其它模型在其它评测对比:




更详细的评测可以参考DataLearnerAI的大模型评测排行: https://www.datalearner.com/ai-models/llm-evaluation 

欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送

StableLM2-12B所属的领域
自然语言处理

自然语言处理

Natural Language Process

35个资源

StableLM2-12B相关的任务
问答系统

问答系统

Question Answering

35个资源