Aquila2-70B-Expr - Aquila2-70B-Expr

模型详细情况和参数

Aquila2-70B-Expr

模型全称
Aquila2-70B-Expr
模型简称
Aquila2-70B-Expr
模型类型
基础大模型
发布日期
2023-11-30
预训练文件大小
140GB
是否支持中文(中文优化)
最高支持的上下文长度
4K
模型参数数量(亿)
700.0
模型代码开源协议
BAAI Aquila Model License Agreement
预训练结果开源商用情况
BAAI Aquila Model License Agreement - 免费商用授权
在线演示地址
暂无
DataLearnerAI的模型介绍
基础模型
无基础模型

Aquila2-70B-Expr 简介

这是北京智源人工智能研究院开源的最新的700亿参数规模的大语言模型,是悟道·天鹰系列参数规模最大的模型。Aquila2-70B-Expr模型的Expr代表的是Experimental,表明这是一个实验性质的模型。而根据官方的介绍,这个模型的实验的主要是验证异构芯片上模型训练的性能和效果


Aquila2-70B-Expr模型在1.2万亿tokens数据集上预训练得到,该模型在不同任务的评测结果如下:


评测基准Aquila2-70B-ExprLlama2-70BAquila2-34B v1.2
C-Eval (test)66.859.3
CLUE74.7967.9279.2
Gaokao2023 v2.058.0644.8653.92
C-SEM v1.076.1467.285.15
MMLU61.9269.5473.74


可以看到,这个模型本身的评测结果一般,甚至不如Aquila2-34B v1.2版本,原因官方解释是训练数据较少。而且它的预训练数据集中,英文数据量只有Llama2-70B的三分之一左右。但是,官方在实验中:

对Aquila2-70B-Expr进行以MMLU训练集进行增广的数据进行了一小段持续训练,Aquila2-70B-Expr能迅速在MMLU的总体评测上提升至80.7分

官方认为这意味着作为基座模型,Aquila2-70B-Expr模型非常优秀,可以在后续的使用中提供一个泛化能力强、学习能力强基座模型。所以,直接在当前状态进行了开源。


另外,官方重点提到,这个模型是做异构训练实验验证的产物。在使用A100+A800异构英伟达GPU芯片集群、天数智能的天数BI-V100+BI-V150的异构集群上都做了训练对比,结果证明异构芯片的训练结果与纯粹的A100上或者是纯粹的天数BI-V100上训练效果差不多。


这也是这个模型生产过程中的一个重要共享,在异构硬件上训练的问题需要解决:

  • 不同架构设备的软硬件栈不兼容,数值精度也可能存在差异;
  • 不同架构设备之间很难高效通信;
  • 不同设备算力和内存不同,很难进行负载均衡切分。

BAAI此次开源的Aquila2-70B-Expr其实就是FlagScale框架的新特性测试结果。

欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送

Aquila2-70B-Expr所属的领域
自然语言处理

自然语言处理

Natural Language Process

35个资源

Aquila2-70B-Expr相关的任务
问答系统

问答系统

Question Answering

35个资源