Qwen1.5-110B - Qwen1.5-110B

模型详细情况和参数

Qwen1.5-110B

模型全称
Qwen1.5-110B
模型简称
Qwen1.5-110B
模型类型
基础大模型
发布日期
2024-04-25
预训练文件大小
220GB
是否支持中文(中文优化)
最高支持的上下文长度
32K
模型参数数量(亿)
1100.0
预训练结果开源商用情况
Tongyi Qianwen RESEARCH LICENSE AGREEMENT - 免费商用授权
在线演示地址
暂无
DataLearnerAI的模型介绍
基础模型
无基础模型
发布机构

Qwen1.5-110B 简介

简介

  • Qwen1.5-110B 是Qwen1.5系列的第一个超过1100亿参数的模型。
  • 它在基准测试和聊天机器人领域展示了卓越的性能。
  • 与Meta-Llama3-70B模型相比,在基础模型评估中具有可比性的性能,在聊天评估中表现突出,包括MT-Bench和AlpacaEval 2.0。

模型特点

  • 架构:与Qwen1.5系列的其他模型相似,采用相同的Transformer解码器架构。
  • 效率:包含分组查询注意力(Grouped Query Attention, GQA),在模型服务中效率较高。
  • 上下文长度:支持32K个token的上下文长度。
  • 多语言支持:模型是多语言的,支持包括英语、中文、法语、西班牙语、德语、俄语、韩语、日语、越南语、阿拉伯语等在内的多种语言。

模型质量

  • 进行了一系列的基础语言模型评估,并与Meta-Llama3-70B和Mixtral-8x22B进行了比较。
  • 在MMLU、TheoremQA、GPQA、Hellaswag、BBH、ARC-C、GSM8K、MATH、HumanEval和MBPP等多个基准测试中,Qwen1.5-110B至少与Llama-3-70B模型在基础能力上具有竞争力。
模型Qwen1.5-110BQwen1.5-72BLlama-3-70BMixtral-8x22B
MMLU80.477.579.577.8
TheoremQA34.929.332.035.9
GPQA35.936.336.434.3
Hellaswag87.586.088.088.7
BBH74.865.576.669.2
ARC-C69.665.968.870.7
GSM8K85.479.579.278.6
MATH49.634.141.041.7
HumanEval52.441.545.745.1
MBPP58.153.455.171.2
  • 性能提升主要来自于模型大小的增加,而不是预训练和后训练方法的大幅改变。

聊天模型测试

  • 在MT-Bench和AlpacaEval 2.0两个聊天模型基准测试中,110B模型的表现显著优于之前发布的72B模型。
  • 这表明更强大、更大型的基础语言模型可以带来更好的聊天模型,即使后训练方法没有太大变化。

欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送

Qwen1.5-110B所属的领域
自然语言处理

自然语言处理

Natural Language Process

35个资源

Qwen1.5-110B相关的任务
问答系统

问答系统

Question Answering

35个资源