OpenAssistant-Pythia
OpenAssistant-Pythia
模型参数
120.0亿
上下文长度
2K
中文支持
不支持
推理能力
模型基本信息
推理过程
不支持
上下文长度
2K tokens
最大输出长度
暂无数据
模型类型
暂无数据
发布时间
2023-04-03
模型文件大小
23
MoE架构
否
总参数 / 激活参数
120.0 亿 / 不涉及
知识截止
暂无数据
推理模式
暂无模式数据
开源和体验地址
代码开源状态
暂无数据
预训练权重开源
暂无数据
在线体验
暂无在线体验地址
官方介绍与博客
官方论文
暂无官方论文
DataLearnerAI博客
暂无介绍博客
API接口信息
接口速度
暂无数据
暂无公开的 API 定价信息。
评测得分
当前尚无可展示的评测数据。
发布机构
LAION AI
查看发布机构详情 模型解读
OpenAssistant-Pythia是OpenAssistant系列中基于Pythia模型微调得到的结果。
Pythia是由EleutherAI开源的一组大模型(Pythia模型信息卡: https://www.datalearner.com/ai-models/pretrained-models/Pythia )。
目前,OpenAssistant基于Pythia微调的模型分为两类:一类是基于有监督学习微调的模型,名字带有sft,一类是基于奖励模型的微调,名字带有rm
| 模型名称 | 参数大小 | 说明 |
|---|---|---|
| oasst-sft-1-pythia-12b | 120亿 | 这是Open-Assistant项目的第一次迭代英语监督微调(supervised-fine-tuning,SFT)模型。它基于一个Pythia 12B模型,该模型在2023年3月7日之前通过https://open-assistant.io/人工反馈Web应用程序收集的约22,000个助手对话人类演示进行微调。 |
| oasst-sft-4-pythia-12b-epoch-3.5 | 120亿 | 这是Open-Assistant项目的第四次迭代英语监督微调(SFT)模型。它基于一个Pythia 12B模型,该模型在2023年3月25日之前通过https://open-assistant.io/人工反馈Web应用程序收集的助手对话人类演示进行了微调。 |
| oasst-rm-2.1-pythia-1.4b-epoch-2.5 | 14亿 | 基于pythia-1.4b-gpt4all-pretrain微调结果 |
| oasst-rm-2-pythia-6.9b-epoch-1 | 69亿 | 基于pythia-6.9b-gpt4all-pretrain微调结果 |
| oasst-rm-2.1-pythia-1.4b-epoch-2.5 | 14亿 | 基于pythia-1.4b-gpt4all-pretrain微调结果 |
基础模型
LLaMA
查看详情DataLearner 官方微信
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
