MPT-30B - MosaicML Pretrained Transformer - 30B

模型详细情况和参数

MPT-30B

模型全称
MosaicML Pretrained Transformer - 30B
模型简称
MPT-30B
模型类型
基础大模型
发布日期
2023-06-22
预训练文件大小
60GB
是否支持中文(中文优化)
最高支持的上下文长度
2K
模型参数数量(亿)
300.0
模型代码开源协议
Apache 2.0
预训练结果开源商用情况
Apache 2.0 - 免费商用授权
模型HuggingFace链接
https://huggingface.co/mosaicml/mpt-30b
在线演示地址
暂无
DataLearnerAI的模型介绍
基础模型
发布机构

MosaicML Pretrained Transformer - 30B 简介

MPT-30B是MosaicML开源的一个300亿参数规模的基础大语言模型。这是距离MPT-7B系列模型发布仅仅一个多月时间又一次更新。


相比较此前的MPT-7B系列模型,MPT-30B修改了transformer架构,使其训练和推理更加高效。MPT-30B是一个基础大语言模型,训练数据依然来自MosaicML团队收集的1万亿文本和代码数据集。


MPT-30B具有区别于其他LLM的特殊能力,包括支持8k的上下文窗口(可以通过微调进一步扩展,类似于MPT-7B-StoryWriter),通过ALiBi支持上下文长度的外推,以及通过FlashAttention进行高效推理+训练。由于其预训练组合,它还具有强大的编码能力。


至于300亿参数规模,官方也宣称是一种精心选择的结果,MPT-30B的规模可以在单个GPU上部署:其16位精度的模型可以部署在单个xA100-80GB显卡上,而8位精度的模型则可以部署在一个A100-40GB显卡上。


MPT-30B依然是代码和预训练结果均开源可商用的方式授权,以Apache 2.0协议开源。

欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送

MPT-30B所属的领域
自然语言处理

自然语言处理

Natural Language Process

35个资源

MPT-30B相关的任务
问答系统

问答系统

Question Answering

35个资源