Qwen-7B-Chat - Qwen-7B-Chat

模型详细情况和参数

Qwen-7B-Chat

模型全称
Qwen-7B-Chat
模型简称
Qwen-7B-Chat
模型类型
基础大模型
发布日期
2023-08-03
预训练文件大小
15.4GB
是否支持中文(中文优化)
最高支持的上下文长度
8K
模型参数数量(亿)
70.0
模型代码开源协议
Tongyi Qianwen LICENSE AGREEMENT
预训练结果开源商用情况
Tongyi Qianwen LICENSE AGREEMENT - 免费商用授权
在线演示地址
暂无
DataLearnerAI的模型介绍
官方博客论文
通义千问
基础模型
无基础模型
发布机构

Qwen-7B-Chat 简介

通义千问-7B(Qwen-7B)是阿里云研发的通义千问大模型系列的70亿参数规模的模型。Qwen-7B是基于Transformer的大语言模型, 在超大规模的预训练数据上进行训练得到。预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代码等。


Qwen-7B-Chat是在在Qwen-7B的基础上,使用对齐机制打造了基于大语言模型的AI助手Qwen-7B-Chat。


通义千问的评测效果也很好,超过了LLaMA2:


ModelMMLUC-EvalGSM8KHumanEvalWMT22 (en-zh)
LLaMA-7B35.1-11.010.58.7
LLaMA 2-7B45.3-14.612.817.9
Baichuan-7B42.342.89.79.226.6
ChatGLM2-6B47.951.732.49.2-
InternLM-7B51.052.831.210.414.8
Baichuan-13B51.653.626.612.830.0
LLaMA-13B46.935.517.815.812.0
LLaMA 2-13B54.8-28.718.324.2
ChatGLM2-12B56.261.640.9--
Qwen-7B56.759.651.624.430.6


从上图的评测中可以看到,阿里通义千问在MMLU得分第一,超过了LLaMA2系列模型,而其他方面的得分也很高。最重要的是这个模型中文支持良好,开源免费商用!


Qwen-7B-Chat版本的基础模型是Qwen-7B,模型信息卡: https://www.datalearner.com/ai-models/pretrained-models/Qwen-7B 

欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送

Qwen-7B-Chat所属的领域
自然语言处理

自然语言处理

Natural Language Process

35个资源

Qwen-7B-Chat相关的任务
问答系统

问答系统

Question Answering

35个资源