OP

OpenAssistant-Pythia

OpenAssistant-Pythia

发布时间: 2023-04-03389
模型参数
120.0亿
上下文长度
2K
中文支持
不支持
推理能力

模型基本信息

推理过程
不支持
上下文长度
2K tokens
最大输出长度
暂无数据
模型类型
暂无数据
发布时间
2023-04-03
模型文件大小
23
MoE架构
总参数 / 激活参数
120.0 亿 / 不涉及
知识截止
暂无数据
推理模式
暂无模式数据

开源和体验地址

代码开源状态
暂无数据
预训练权重开源
暂无数据
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
暂无官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度
暂无数据
暂无公开的 API 定价信息。

评测得分

当前尚无可展示的评测数据。

发布机构

模型解读

OpenAssistant-Pythia是OpenAssistant系列中基于Pythia模型微调得到的结果。


Pythia是由EleutherAI开源的一组大模型(Pythia模型信息卡: https://www.datalearner.com/ai-models/pretrained-models/Pythia )。


目前,OpenAssistant基于Pythia微调的模型分为两类:一类是基于有监督学习微调的模型,名字带有sft,一类是基于奖励模型的微调,名字带有rm



模型名称参数大小说明
oasst-sft-1-pythia-12b120亿这是Open-Assistant项目的第一次迭代英语监督微调(supervised-fine-tuning,SFT)模型。它基于一个Pythia 12B模型,该模型在2023年3月7日之前通过https://open-assistant.io/人工反馈Web应用程序收集的约22,000个助手对话人类演示进行微调。
oasst-sft-4-pythia-12b-epoch-3.5120亿这是Open-Assistant项目的第四次迭代英语监督微调(SFT)模型。它基于一个Pythia 12B模型,该模型在2023年3月25日之前通过https://open-assistant.io/人工反馈Web应用程序收集的助手对话人类演示进行了微调。
oasst-rm-2.1-pythia-1.4b-epoch-2.514亿基于pythia-1.4b-gpt4all-pretrain微调结果
oasst-rm-2-pythia-6.9b-epoch-169亿基于pythia-6.9b-gpt4all-pretrain微调结果
oasst-rm-2.1-pythia-1.4b-epoch-2.514亿基于pythia-1.4b-gpt4all-pretrain微调结果


基础模型

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码