BA

Baichuan2-192K

Baichuan2-192K

发布时间: 2023-10-30358
模型参数
530.0亿
上下文长度
192K
中文支持
支持
推理能力

模型基本信息

推理过程
不支持
上下文长度
192K tokens
最大输出长度
暂无数据
模型类型
基础大模型
发布时间
2023-10-30
模型文件大小
暂无数据
MoE架构
总参数 / 激活参数
530.0 亿 / 不涉及
知识截止
暂无数据
推理模式
暂无模式数据

开源和体验地址

代码开源状态
不开源
预训练权重开源
不开源- 不开源
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址

官方介绍与博客

API接口信息

接口速度
暂无数据
暂无公开的 API 定价信息。

评测得分

当前尚无可展示的评测数据。

发布机构

模型解读

Baichuan2-192K是百川智能发布的支持超长上下文输入的大语言模型,是截止目前位置已知的商用领域最长上下文。而此前发布的最长上下文大模型是Antropic发布的Claude2-100K。Baichuan2-192K的上下文长度支持几乎是其2倍。



官方宣称,在实际测试中,Baichuan2-192K可以一次处理35万个汉字,而Claude2-100K实际测试结果约8万个汉字,而GPT4-32K只有约2.5万字。


Baichuan2-192K在实际的长上下文测试表现也很好:



在超过80K之后的测试中,Baichuan2-192K遥遥领先:



不过,Baichuan2-192K是商用模型,目前只允许企业客户使用。官方透露,Baichuan2-192K还支持多模态输入和复杂的理解,未来十分值得期待。


详细介绍: https://www.datalearner.com/llm-blogs/Baichuan2-192K 







DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码