数据学习
登录
注册
原创博客
期刊会议
学术世界
期刊出版社
领域期刊
SCI/SCIE/SSCI/EI简介
期刊列表
会议列表
所有期刊分区
学术期刊信息检索
JCR期刊分区查询
CiteScore期刊分区查询
中科院期刊分区查询
领域期刊分区
管理 - UTD24期刊列表
管理 - AJG(ABS)期刊星级查询
管理 - FMS推荐期刊列表
计算机 - CCF推荐期刊会议列表
高校期刊分区
南大核心(CSSCI)
合工大小核心
合工大大核心
AI资源仓库
AI领域与任务
AI研究机构
AI学术期刊
AI论文快讯
AI数据集
AI开源工具
AI模型
AI模型概览
预训练模型
数据推荐
网址导航
我的网址导航
程序员必备网站
开源版本的GPT-3来临!Meta发布OPT大语言模型!
标签:
#NLP#
#深度学习#
时间:2023/03/13 12:29:26
作者:小木
关注深度学习或者NLP的童鞋应该都知道openAI的GPT-3模型,这是一个非常厉害的模型,在很多任务上都取得了极其出色的成绩。然而,OpenAI的有限开放政策让这个模型的应用被限定在很窄的范围内。甚至由于大陆不在OpenAI的API开放国家,大家几乎都无法使用和体验。而五一假期期间,FaceBook的研究人员Susan Zhang等人发布了一个开源的大预言模型,其参数规模1750亿,与GPT-3几乎一样。 OPT是开源的,具体参考模型卡:https://www.datalearner.com/ai-models/pretrained-models/OPT

GPT-3的不开放使得很多研究人员无法对这个强大的模型进行进一步探索,而FaceBook这次开源的大模型表示其能力与GPT-3基本一致,并且向感兴趣的研究人员充分和负责地分享!该模型名称为OPT(Open Pre-trained Transformer Language Models),从名字上不仅与GPT-3差不多,但也突出了开放。目前开放的OPT版本包括如下几种:

从与GPT-3在14个任务的对比情况来看,OPT几乎与GPT-3的水平一致(下图分布是zero-shot与multi-shot对比结果):


目前OPT已经在Github上开源,除了最大的1750亿参数的模型需要填写申请以外,其它都可以直接下载。模型是pt(PyTorch的训练结果)。大家可以抓紧尝试! 除了模型本身的开放,FaceBook此次还在论文中公布了他们的训练的一些经验,包括学习速率的设置、硬件故障、损失收敛等问题,也都在论文中一一做了解释说明。 arXiv地址:https://arxiv.org/abs/2205.01068 GitHub地址:https://github.com/facebookresearch/metaseq/tree/main/projects/OPT
相关博客
最热博客