Baichuan2-192K
Baichuan2-192K
模型参数
530.0亿
上下文长度
192K
中文支持
支持
推理能力
模型基本信息
推理过程
不支持
上下文长度
192K tokens
最大输出长度
暂无数据
模型类型
基础大模型
发布时间
2023-10-30
模型文件大小
暂无数据
MoE架构
否
总参数 / 激活参数
530.0 亿 / 不涉及
知识截止
暂无数据
推理模式
暂无模式数据
开源和体验地址
代码开源状态
不开源
预训练权重开源
不开源- 不开源
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址
官方介绍与博客
DataLearnerAI博客
暂无介绍博客
API接口信息
接口速度
暂无数据
暂无公开的 API 定价信息。
评测得分
当前尚无可展示的评测数据。
发布机构
百川智能
查看发布机构详情 模型解读
Baichuan2-192K是百川智能发布的支持超长上下文输入的大语言模型,是截止目前位置已知的商用领域最长上下文。而此前发布的最长上下文大模型是Antropic发布的Claude2-100K。Baichuan2-192K的上下文长度支持几乎是其2倍。

官方宣称,在实际测试中,Baichuan2-192K可以一次处理35万个汉字,而Claude2-100K实际测试结果约8万个汉字,而GPT4-32K只有约2.5万字。
Baichuan2-192K在实际的长上下文测试表现也很好:

在超过80K之后的测试中,Baichuan2-192K遥遥领先:

不过,Baichuan2-192K是商用模型,目前只允许企业客户使用。官方透露,Baichuan2-192K还支持多模态输入和复杂的理解,未来十分值得期待。
详细介绍: https://www.datalearner.com/llm-blogs/Baichuan2-192K
DataLearner 官方微信
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
