XVERSE-13B-256K - XVERSE-13B-256K

模型详细情况和参数

XVERSE-13B-256K

模型全称
XVERSE-13B-256K
模型简称
XVERSE-13B-256K
模型类型
基础大模型
发布日期
2024-01-16
预训练文件大小
26GB
是否支持中文(中文优化)
最高支持的上下文长度
256K
模型参数数量(亿)
130.0
模型代码开源协议
Apache 2.0
预训练结果开源商用情况
Apache 2.0 - 免费商用授权
在线演示地址
暂无
DataLearnerAI的模型介绍
基础模型
无基础模型
发布机构

XVERSE-13B-256K 简介

XVERSE-13B-256K是深圳元象科技开源的一个上下文长度最多为256K的大语言模型,参数规模130亿,是基于此前开源的XVERSE-130B基础上进行扩展得到的,是全球支持上下文最长的一个大模型之一。更重要的是该模型以Apache2.0协议开源,免费商用授权


大语言模型支持更长的上下文意味着模型可以一次处理更多的数据,可以一次性考虑更广泛、更深入的信息范围,这不仅提高了对话的连贯性和准确性,还使模型更好地理解复杂的话题和细微的语境变化。在财报分析、长篇文章写作等方面都有很高的价值。此前,商业大模型中上下文长度最高的是李开复零一万物的Yi-34B-200K上下文大模型以及Anthropic的Claude-2-200K模型,而深圳的元象科技开源了一个最高上下文256K的大语言模型XVERSE-13B-256K,可以一次性处理25万字左右,是目前上下文长度最高的大模型,而且这个模型是以Apache2.0协议开源,完全免费商用授权。

XVERSE-13B-256K介绍

XVERSE-13B-256K是基于XVERSE-13B-2继续训练得到的,后者是XVERSE开源一个130亿参数规模的大语言模型,该模型在3.2万亿tokens数据集上训练得到,各项评测指标结果与340亿参数的LLaMA2-34B水平差不多。

数据来源:https://www.datalearner.com/ai-models/llm-evaluation

但是,XVERSE-13B-2本身只支持8K上下文,为了支持更长的上下文长度,元象科技在这个模型的基础上继续训练得到了 XVERSE-13B-256K模型。这也是目前全球最长上下文模型。

模型名称是否中文优化上下文长度地区开源情况DataLearnerAI模型信息卡地址
XVERSE-13B-256K256K中国免费商用授权https://www.datalearner.com/ai-models/pretrained-models/XVERSE-13B-256K
Yi-6B-200K200K中国免费商用授权https://www.datalearner.com/ai-models/pretrained-models/Yi-6B-200K
Yi-34B-200K200K中国免费商用授权https://www.datalearner.com/ai-models/pretrained-models/Yi-34B-200K
Claude-2.1200K美国不开源
Baichuan2-192K192K中国免费商用授权https://www.datalearner.com/ai-models/pretrained-models/Baichuan2-192K
GPT-Turbo-128K128K美国不开源
GLM4128K中国不开源https://www.datalearner.com/ai-models/pretrained-models/GLM4
MPT-7B-StoryWriter-65k+65K美国免费商用授权https://www.datalearner.com/ai-models/pretrained-models/MPT-7B-StoryWriter-65k+

从这个表可以看出,在超长上下文大语言模型的赛道中,国内有很多开源都在做,而美国最大的2个商业模型也都支持超过100K的上下文,不过都是闭源的。而XVERSE-13B-256K是目前上下文长度最高的。

XVERSE-13B-256K的评测效果

针对模型超长上下文能力的评测目前业界没有很多的评测基准,用的最多的有2类,分别是LongBench和needle in a haystack”(大海捞针)测试。

LongBench是清华大学KEG小组推出的一个针对大语言模型长上下文能力的基准测试,包含了14个英文任务和5个中文任务,以及2个代码任务。任务的长度从5K到15K不等,共4750个测试数据集。官方提供的一些测试结果如下:

模型名称LongBench平均分
XVERSE-13B-256K42.24
GPT-3.5-Turbo-16K46.25
Yi-6B-200K29.12
LongChat-7B-16K26.45
Llama2-7B-Chat-4K19.75

这是一个简单的对比,因为LongBench本身缺少完整的Leaderboard,上述数据来自XVerse的HF公布的结果。LongBench官方公布的一些模型中最好的也是GPT-3.5-Turbo-16k与ChatGLM3-6B,结果也在40多分,可以理解为XVERSE-13B-256K在长上下文的表现上应该是超过了60亿参数规模的大模型,与GPT-3.5-Turbo-16K和ChatGLM3-6B差不多的水平。

而在另一项needle in a haystack”(大海捞针)测试中,XVERSE-13B-256K取得了99.67%的得分,表现非常优秀。大模型“大海捞针”测试就是给定一篇超长上下文,然后插入一句与全文无关的内容,用大模型针对这个无关内容提问,如果大模型能准确回答,则说明大模型超长上下文支持良好,这个测试虽然不严谨,但是某种程度上可以代表大模型对超长上下文的支持水平。具体测试过程可以详情参考此前GPT-4与Claude的测试:https://www.datalearner.com/blog/1051699526438975 和 https://www.datalearner.com/blog/1051701947131881

而昨天智谱AI的GLM4发布会上公布的大海捞针测试结果:

如果是相同的测试,那意味着XVERSE-13B-256K效果在这方面的表现还是非常惊人的!

XVERSE-13B-256K是如何训练出来的

大模型的超长上下文的训练非常困难,主要是上下文长度增加之后模型训练过程的显存消耗会大幅增加,而且也容易导致遗忘长序列的知识。元象科技也公布讨论了自己的长上下文训练策略:

简单来说,就是在8K模型的基础上先基于ABF技术用更长的输入数据继续进行预训练,得到32K上下文大模型,然后通过微调技术将上下文拓展到256K。这部分具体的操作也可以参考他们官方发布的原文的内容:https://mp.weixin.qq.com/s/R8ewi1NsAK9Qwh0e7UyyBw

XVERSE-13B-256K总结

总的来说XVERSE-13B-256K是目前最高上下文长度的模型。在特殊的应用场景,如财报分析、PDF问答等场景是非常有价值的。它的水平可以理解为与GPT-3.5-Turbo-16K差不多,比大部分60亿参数规模的模型都要好,最主要的是该模型是免费商用授权,这是非常难得的。而目前他们官网也可以体验这个模型,对于有需求的童鞋来说可以先行测试~

欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送

XVERSE-13B-256K所属的领域
自然语言处理

自然语言处理

Natural Language Process

35个资源

XVERSE-13B-256K相关的任务
问答系统

问答系统

Question Answering

35个资源