MPT-7B-8k-Chat - MPT-7B-8k-Chat

模型详细情况和参数

MPT-7B-8k-Chat

模型全称
MPT-7B-8k-Chat
模型简称
MPT-7B-8k-Chat
模型类型
基础大模型
发布日期
2023-07-18
预训练文件大小
13.3GB
是否支持中文(中文优化)
最高支持的上下文长度
8K
模型参数数量(亿)
70
代码是否开源
Apache 2.0
预训练结果是否开源
CC BY-NC-SA 4.0
预训练结果商用授权情况
不可以商用
模型GitHub链接
暂无
发布论文名(官方博客名)
Announcing MPT-7B-8K: 8K Context Length for Document Understanding
论文地址(官方博客地址)
https://www.mosaicml.com/blog/long-context-mpt-7b-8k
基础模型
发布机构

MPT-7B-8k-Chat 简介

支持对话的8K上下文的MPT系列。

欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送

MPT-7B-8k-Chat所属的领域
自然语言处理

自然语言处理

Natural Language Process

35个资源

MPT-7B-8k-Chat相关的任务
问答系统

问答系统

Question Answering

35个资源