Lo

LongForm LLaMA 7B

基础大模型

LongForm LLaMA 7B

发布时间: 2023-04-26

414
模型参数(Parameters)
70.0
最高上下文长度(Context Length)
2K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

2K tokens

最长输出结果
暂无数据
模型类型

基础大模型

发布时间

2023-04-26

模型预文件大小

28GB

开源和体验地址

代码开源状态
预训练权重开源
-
GitHub 源码
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

API接口信息

接口速度(满分5分)
暂无数据
接口价格
暂无公开的 API 定价信息。

LongForm LLaMA 7B模型在各大评测榜单的评分

当前尚无可展示的评测数据。

发布机构

LongForm LLaMA 7B模型解读

LongForm LLaMA 7B是慕尼黑大学研究人员基于LongForm数据集微调LLaMA模型的预训练大模型。LongForm是一系列指令微调数据集,包含27739条记录。这是通过使用LLM从数据集中生成指令后得到的指令微调数据集。是一种低成本高质量的指令微调数据集获取方法。


LongForm LLaMA 7B就是利用上述数据集,用LLaMA微调得到的。但是,由于LLaMA模型协议的限制,研究人员无法直接发布基于LLaMA微调的任何结果。因此,他们发布了一个diff模型:LongForm-LLaMA-7B-diff。


LongForm-LLaMA-7B-diff是一个预训练结果,但是这个预训练结果是LongForm-LLaMA-7B与原始LLaMA-7B模型的差异结果。也就是说不包含原始LLaMA的任意部分。这也是规避MetaAI模型开源限制的方法。使用的时候,需要先从MetaAI那里获取原始的LLaMA模型,然后再加载这个LongForm-LLaMA-7B-diff模型,将二者合并之后得到真正的LongForm LLaMA 7B模型后才能使用。


根据官方的测试,基于LongForm数据集微调的模型效果非常好:

模型名称平均得分得分菜谱生成得分ELI5得分Prompts撰写得分
T0++10.918.73.810.2
Tk-Instruct6.312.9*3.62.4
Flan-T510.620.9*3.57.4
Alpaca-LLaMA-7B14.619.512.511.8
OPT-30B11.118.612.22.6
LongForm-T5-XL16.320.218.310.6
LongForm-OPT-2.7B17.815.517.919.9
LongForm-OPT-6.7B17.716.917.219.0
LongForm-LLaMA-7B19.721.718.618.9


Foundation Model

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat