Generative Pre-trained Transformer-J

GPT-J是由EleutherAI开源的大语言模型,模型架构类似GPT-2,但是与GPT-3相比水平类似(同等规模参数)

GPT-J基本信息

模型发布时间: 2021-06-04

模型发布机构: EleutherAI

模型所属类型: 自然语言处理

模型官方地址: https://www.eleuther.ai/artifacts/gpt-j

GPT-J大模型详细介绍

GPT-J是由EleutherAI创建的语言模型,EleutherAI是一个致力于开发开源人工智能模型的去中心化研究组织。


GPT-J最早由EleutherAI在2021年4月发布,第一个模型是一个60亿参数的版本,基于Ben Wang的Mesh Transformer JAX训练的。


GPT-J基于GPT-3架构,是目前公开可用的最大语言模型之一。


EleutherAI使用公开可用的文本数据集和多种互联网来源对GPT-J进行了训练。生成的模型能够在各种任务中生成连贯和多样化的文本,包括语言翻译、问答和文本自动完成。


GPT-J的开源特点值得注意,这意味着其代码和数据是公开可用的,供其他人使用和构建。这使得它成为对自然语言处理感兴趣的研究人员和开发人员的重要资源,因为它使他们能够尝试和改进模型的架构和功能。


此外,EleutherAI已经采取措施确保GPT-J在道德和负责任的方式下进行训练和部署,努力减少模型中的偏见,并确保它不用于有害目的。

总的来说,GPT-J代表了语言模型开发的一个重要里程碑,并展示了分散的、社区驱动的研究如何推动人工智能创新的边界。

欢迎大家关注DataLearner官方微信,接受最新的AI技术推送
datalearner-wechat
基于GPT-J微调的模型列表