DataLearner 标志DataLearnerAI
最新AI资讯
大模型排行榜
大模型评测基准
大模型列表
大模型对比
资源中心
工具
语言中文
DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
页面导航
目录
大模型列表OpenAssistant LLaMA
OP

OpenAssistant LLaMA

基础大模型

OpenAssistant LLaMA

发布时间: 2023-03-09更新于: 2023-04-26 21:57:45.596621
在线体验GitHubHugging FaceCompare
模型参数
300亿
上下文长度
2K
中文支持
不支持
推理能力

OpenAssistant LLaMA 是由 LAION AI 发布的 AI 模型,发布时间为 2023-03-09,定位为 基础大模型,参数规模约为 300.0B,上下文长度为 2K,模型文件大小约 60G。

数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法

OpenAssistant LLaMA

模型基本信息

推理过程
不支持
思考模式
不支持思考模式
上下文长度
2K tokens
最大输出长度
暂无数据
模型类型
基础大模型
发布时间
2023-03-09
模型文件大小
60G
MoE架构
否
总参数 / 激活参数
300 亿 / 不涉及
知识截止
暂无数据
OpenAssistant LLaMA

开源和体验地址

代码开源状态
暂无数据
预训练权重开源
暂无数据
GitHub 源码
https://github.com/LAION-AI/Open-Assistant
Hugging Face
https://huggingface.co/OpenAssistant/oasst-sft-6-llama-30b-xor
在线体验
暂无在线体验地址
OpenAssistant LLaMA

官方介绍与博客

官方论文
暂无官方论文
DataLearnerAI博客
暂无介绍博客
OpenAssistant LLaMA

API接口信息

接口速度
暂无数据
暂无公开的 API 定价信息。
OpenAssistant LLaMA

评测结果

当前尚无可展示的评测数据。
OpenAssistant LLaMA

发布机构

LAION AI
LAION AI
查看发布机构详情
OpenAssistant LLaMA

模型解读

OpenAssistant是由LAION AI开源的一个AI Chat模型,它的目的是为每个人提供一个访问大模型的机会。


OpenAssistant是一个基于聊天的助手,能够理解任务,可以与第三方系统交互,并动态地检索信息以执行任务。

它可以轻松地扩展和个性化,并作为免费的开源软件开发。


OpenAssistant LLaMA是基于MetaAI开源的LLaMA模型微调得到,目前依然在不断的训练中,官方提供的关于OpenAssistant发展的路线图如下:



目前,官方提供了一个系统供大家使用访问,不过为了提升模型,需要我们自己能完成它们的一些人物获得reward之后才能对话,但是任务都比较简单。


系统地址: https://open-assistant.io/ 


OpenAssistant LLaMA是OpenAssistant系列模型中目前最大的(截止2023年4月26日),是基于MetaAI的LLaMA模型微调的结果,目前官方提供的模型应该是基于有监督微调的第6次迭代结果,也是目前OpenAssistant系列中最强的模型。


HuggingFace上对应的模型名称是oasst-sft-6-llama-30b-xor,其中oasst表示Open-Assistant,sft表示有监督学习supervised-fine-tuning,6按照LAION AI项目命名习惯应该是第6次迭代,llama表示该模型是基于LLaMA微调的,30b表示300亿参数,xor表示为了提供Open Access模型而提供的XOR weights(原因是MetaAI的限制,所有基于LLaMA微调的模型不能直接提供权重结果)。


不过,oasst-sft-6-llama-30b-xor目前仅在Linux上测试通过,在Windows上使用可能会报错。


OpenAssistant还提供了其它的版本,主要是基于pythia微调的结果供大家使用:

模型名称参数大小说明
oasst-sft-1-pythia-12b120亿这是Open-Assistant项目的第一次迭代英语监督微调(supervised-fine-tuning,SFT)模型。它基于一个Pythia 12B模型,该模型在2023年3月7日之前通过https://open-assistant.io/人工反馈Web应用程序收集的约22,000个助手对话人类演示进行微调。
oasst-sft-4-pythia-12b-epoch-3.5120亿这是Open-Assistant项目的第四次迭代英语监督微调(SFT)模型。它基于一个Pythia 12B模型,该模型在2023年3月25日之前通过https://open-assistant.io/人工反馈Web应用程序收集的助手对话人类演示进行了微调。



基础模型

LLaMA
LLaMA
查看详情

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码