do

dolly-v2

基础大模型

dolly-v2

发布时间: 2023-04-12

427
模型参数(Parameters)
120.0
最高上下文长度(Context Length)
2K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

2K tokens

最长输出结果
暂无数据
模型类型

基础大模型

发布时间

2023-04-12

模型预文件大小

23.8GB

开源和体验地址

代码开源状态
预训练权重开源
-
GitHub 源码
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度(满分5分)
暂无数据
接口价格
暂无公开的 API 定价信息。

dolly-v2模型在各大评测榜单的评分

当前尚无可展示的评测数据。

发布机构

dolly-v2模型解读

Dolly 2.0是一种基于EleutherAI pythia模型家族的12亿参数的语言模型,专门在一个新的高质量人类生成的指令跟踪数据集上进行微调,这些数据集是由Databricks员工众包生成的。


这是继Databricks发布Dolly 1.0过去不到一个月时间又一个开源的Dolly模型。不过与Dolly 1.0不同的是,Dolly 2.0是基于pythia模型训练得到。


重点是Dolly 2.0的全部内容都是开源的,包括训练代码、数据集和模型权重,所有这些都适用于商业用途。这意味着任何组织都可以创建、拥有和定制强大的LLMs,可以与人们交流,而无需支付API访问费用或与第三方共享数据。


Dolly 2.0包含了一系列多个版本,最大的参数是120亿,还有70亿、30亿版本:即dolly-v2-12b、dolly-v2-7b和dolly-v2-3b。



关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat