LongForm OPT - LongForm Open Pre-trained Transformer

模型详细情况和参数

LongForm OPT

模型全称
LongForm Open Pre-trained Transformer
模型简称
LongForm OPT
模型类型
基础大模型
发布日期
2023-04-17
预训练文件大小
13.3GB
是否支持中文(中文优化)
最高支持的上下文长度
2K
模型参数数量(亿)
67.0
模型代码开源协议
预训练结果开源商用情况
-
在线演示地址
暂无
DataLearnerAI的模型介绍
基础模型
无基础模型
发布机构

LongForm Open Pre-trained Transformer 简介

LongForm OPT是由慕尼黑大学研究人员开放的一系列基于OPT微调的大预言模型。这个系列的模型是基于他们提出的LongForm数据集对OPT模型微调得到的。其中OPT模型是指MetaAI开源的1750亿参数规模的大预言模型: https://www.datalearner.com/ai-models/pretrained-models/OPT 


LongForm数据集是一个指令微调数据集。研究人员使用大语言模型(Large Language Models,LLM)从现有的语料数据集,如C4、维基百科等中的文章提取指令,来生成大量的指令微调数据集。这种方法可以以较低的成本获取干净的指令微调数据集。再基于这些数据集微调T5、OPT和LLaMA模型,就可以提升这些模型的生成质量,并可以用来生成长文本。


最终,LongForm数据集的结果如下:

数据集类型来源样本数据量
CorporaC410000
CorporaWikipedia5000
Structured CorporaStack Exchange4380
Structured CorporaWikiHow2500
TasksNIv23684
TasksBig Bench600
TasksBEA-GEC1203
TasksEnron372
总计27739


目前,LongForm-OPT系列包含4个模型:

LongForm-OPT模型名称参数大小HuggingFace资源链接
LongForm-OPT-6.7B67亿 https://huggingface.co/akoksal/LongForm-OPT-6.7B 
LongForm-OPT-1.3B13亿 https://huggingface.co/akoksal/LongForm-OPT-1.3B 
LongForm-OPT-350M3.5亿 https://huggingface.co/akoksal/LongForm-OPT-350M 
LongForm-OPT-125M1.25亿 https://huggingface.co/akoksal/LongForm-OPT-125M 


LongForm-OPT系列模型本身是开源的,使用MIT开源协议,但是OPT本身的协议是MetaAI的模型协议,不支持商用。

欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送

LongForm OPT所属的领域
自然语言处理

自然语言处理

Natural Language Process

35个资源

LongForm OPT相关的任务
问答系统

问答系统

Question Answering

35个资源