- 模型全称
- MPT-7B-8k-Chat
- 模型简称
- MPT-7B-8k-Chat
- 模型类型
- 基础大模型
- 发布日期
- 2023-07-18
- 预训练文件大小
-
13.3GB
- 是否支持中文(中文优化)
-
否
- 最高支持的上下文长度
-
8K
- 模型参数数量(亿)
- 70
- 代码是否开源
-
Apache 2.0
- 预训练结果是否开源
-
CC BY-NC-SA 4.0
- 预训练结果商用授权情况
-
不可以商用
- 模型GitHub链接
-
暂无
- 发布论文名(官方博客名)
-
Announcing MPT-7B-8K: 8K Context Length for Document Understanding