OpenAssistant-Pythia - OpenAssistant-Pythia

模型详细情况和参数

OpenAssistant-Pythia

模型全称
OpenAssistant-Pythia
模型简称
OpenAssistant-Pythia
模型类型
基础大模型
发布日期
2023-04-03
预训练文件大小
23
是否支持中文(中文优化)
最高支持的上下文长度
2K
模型参数数量(亿)
120.0
模型代码开源协议
预训练结果开源商用情况
-
在线演示地址
暂无
DataLearnerAI的模型介绍
官方博客论文
暂无
基础模型
...
LLaMA
查看详情
发布机构

OpenAssistant-Pythia 简介

OpenAssistant-Pythia是OpenAssistant系列中基于Pythia模型微调得到的结果。


Pythia是由EleutherAI开源的一组大模型(Pythia模型信息卡: https://www.datalearner.com/ai-models/pretrained-models/Pythia )。


目前,OpenAssistant基于Pythia微调的模型分为两类:一类是基于有监督学习微调的模型,名字带有sft,一类是基于奖励模型的微调,名字带有rm



模型名称参数大小说明
oasst-sft-1-pythia-12b120亿这是Open-Assistant项目的第一次迭代英语监督微调(supervised-fine-tuning,SFT)模型。它基于一个Pythia 12B模型,该模型在2023年3月7日之前通过https://open-assistant.io/人工反馈Web应用程序收集的约22,000个助手对话人类演示进行微调。
oasst-sft-4-pythia-12b-epoch-3.5120亿这是Open-Assistant项目的第四次迭代英语监督微调(SFT)模型。它基于一个Pythia 12B模型,该模型在2023年3月25日之前通过https://open-assistant.io/人工反馈Web应用程序收集的助手对话人类演示进行了微调。
oasst-rm-2.1-pythia-1.4b-epoch-2.514亿基于pythia-1.4b-gpt4all-pretrain微调结果
oasst-rm-2-pythia-6.9b-epoch-169亿基于pythia-6.9b-gpt4all-pretrain微调结果
oasst-rm-2.1-pythia-1.4b-epoch-2.514亿基于pythia-1.4b-gpt4all-pretrain微调结果


欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送

OpenAssistant-Pythia所属的领域
自然语言处理

自然语言处理

Natural Language Process

35个资源

OpenAssistant-Pythia相关的任务
问答系统

问答系统

Question Answering

35个资源