Baichuan2-192K - Baichuan2-192K

模型详细情况和参数

Baichuan2-192K

模型全称
Baichuan2-192K
模型简称
Baichuan2-192K
模型类型
基础大模型
发布日期
2023-10-30
预训练文件大小
未知
是否支持中文(中文优化)
最高支持的上下文长度
192K
模型参数数量(亿)
530.0
模型代码开源协议
不开源
预训练结果开源商用情况
不开源 - 不开源
模型GitHub链接
暂无
模型HuggingFace链接
暂无
在线演示地址
暂无
DataLearnerAI的模型介绍
基础模型
无基础模型
发布机构

Baichuan2-192K 简介

Baichuan2-192K是百川智能发布的支持超长上下文输入的大语言模型,是截止目前位置已知的商用领域最长上下文。而此前发布的最长上下文大模型是Antropic发布的Claude2-100K。Baichuan2-192K的上下文长度支持几乎是其2倍。



官方宣称,在实际测试中,Baichuan2-192K可以一次处理35万个汉字,而Claude2-100K实际测试结果约8万个汉字,而GPT4-32K只有约2.5万字。


Baichuan2-192K在实际的长上下文测试表现也很好:



在超过80K之后的测试中,Baichuan2-192K遥遥领先:



不过,Baichuan2-192K是商用模型,目前只允许企业客户使用。官方透露,Baichuan2-192K还支持多模态输入和复杂的理解,未来十分值得期待。


详细介绍: https://www.datalearner.com/llm-blogs/Baichuan2-192K 







欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送

Baichuan2-192K所属的领域
自然语言处理

自然语言处理

Natural Language Process

35个资源

Baichuan2-192K相关的任务
问答系统

问答系统

Question Answering

35个资源