RE

RedPajama INCITE 7B V0.1

RedPajama INCITE 7B V0.1

发布时间: 2023-05-05363
模型参数
70.0
上下文长度
2K
中文支持
不支持
推理能力

模型基本信息

推理过程
不支持
上下文长度
2K tokens
最大输出长度
暂无数据
模型类型
暂无数据
发布时间
2023-05-05
模型文件大小
13.8GB
推理模式
暂无模式数据

开源和体验地址

代码开源状态
暂无数据
预训练权重开源
暂无数据
在线体验
暂无在线体验地址

官方介绍与博客

API接口信息

接口速度
暂无数据
暂无公开的 API 定价信息。

评测得分

当前尚无可展示的评测数据。

发布机构

模型解读

RedPajama INCITE 7B是TOGETHER发布的一系列语言模型中的一类,与RedPajama INCITE 3B同一天发布。不过参数规模70亿。


RedPajama INCITE 3B模型信息卡: https://www.datalearner.com/ai-models/pretrained-models/RedPajama-INCITE-3B 


RedPajama INCITE 7B V0.1系列模型简介

RedPajama INCITE 3B系列模型类似,RedPajama INCITE 7B也包含3个版本:

模型名称模型类型参数大小(亿)
RedPajama-INCITE-Base-7B-v0.1语言模型70
RedPajama-INCITE-Chat-7B-v0.1Chat微调70
RedPajama-INCITE-Instruct-7B-v0.1指令微调70


这三个版本的差异:

RedPajama-INCITE-Base-7B-v0.1:70亿规模的基础版本语言模型

RedPajama-INCITE-Chat-7B-v0.1:基于Chat数据集微调

RedPajama-INCITE-Instruct-7B-v0.1:基于指令数据微调


不过可以看到,本次模型的版本是v0.1,与3B模型的v1差异就是7B系列模型仍然在训练中,目前已经达到8000亿tokens的训练。由于TOGETHER官方看到训练损失仍在持续下降。因此,他们将继续训练,直到达到1万亿tokens。尽管如此,这个预训练结果非常有用,并且可以帮助社区更好地理解训练过程。因此,官方发布了三个中间检查点作为最终模型的“预览”。


RedPajama INCITE 7B V0.1系列模型评估结果

这些checkpoints都是根据Apache 2.0许可证发布的。即使在8000亿个tokens训练上,已经看到了令人兴奋的结果。在HELM上,基础模型的表现优于GPT-J和Pythia-6.9B等开放模型0.5-2.2个点,而在EleutherAI的lm-evaluation-harness上,它平均优于这些模型1-3个点。


此外,与LLaMA 7B相比,仍存在质量差距 - 目前在HELM上为4.3个点。对于少样本应用(例如HELM中的应用),调整指令的模型(RedPajama-INCITE-Instruct-7B-v0.1)在基础模型上有显着改进。官方希望在进行更多迭代训练后,一些差距可以被缩小。


Few-Shot得分结果:

模型TypeHELM (16个核心场景平均得分)
GPT-JBase model0.417
Pythia-6.9BBase model0.400
Llama-7BBase model0.465
RedPajama-INCITE-Base-7B-v0.1Base model0.422
RedPajama-INCITE-Instruct-7B-v0.1Instruction-tuned0.499



Zero-shot得分结果:

模型Lambada_openai
(acc)
Hellaswag
(acc_norm)
Winogrande
(acc)
Piqa (acc)average
GPT-J0.66990.66630.65030.75650.6857
Pythia-6.9B0.67120.63890.60690.75190.6672
Pythia-6.9B-dedup0.68930.65880.62660.75780.6831
Llama-7B0.7360*0.7620*0.70400.78100.7457
RedPajama-INCITE-Base-7B-v0.10.70610.69510.65190.76110.7035