DataLearner 标志DataLearnerAI
最新AI资讯
大模型排行榜
大模型评测基准
大模型列表
大模型对比
资源中心
工具
语言中文
DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
页面导航
页面导航
大模型列表MPT-7B-8K
MP

MPT-7B-8K

基础大模型

MPT-7B-8K

发布时间: 2023-07-18更新于: 2023-07-18 23:37:06.519161
在线体验GitHubHugging FaceCompare
模型参数
70亿
上下文长度
8K
中文支持
不支持
推理能力

MPT-7B-8K 是由 MosaicML 发布的 AI 模型,发布时间为 2023-07-18,定位为 基础大模型,参数规模约为 70.0B,上下文长度为 8K,模型文件大小约 13.3GB,采用 Apache 2.0 许可。

数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法

MPT-7B-8K

模型基本信息

推理过程
不支持
思考模式
不支持思考模式
上下文长度
8K tokens
最大输出长度
暂无数据
模型类型
基础大模型
发布时间
2023-07-18
模型文件大小
13.3GB
MoE架构
否
总参数 / 激活参数
70 亿 / 不涉及
知识截止
暂无数据
MPT-7B-8K

开源和体验地址

代码开源状态
Apache 2.0
预训练权重开源
Apache 2.0- 免费商用授权
GitHub 源码
暂无GitHub开源地址
Hugging Face
https://huggingface.co/mosaicml/mpt-7b-8k
在线体验
暂无在线体验地址
MPT-7B-8K

官方介绍与博客

官方论文
Announcing MPT-7B-8K: 8K Context Length for Document Understanding
DataLearnerAI博客
暂无介绍博客
MPT-7B-8K

API接口信息

接口速度
暂无数据
暂无公开的 API 定价信息。
MPT-7B-8K

评测结果

当前尚无可展示的评测数据。

和其他模型对比

暂时没有为该模型整理的相关对比页面。

想自定义其他组合?打开对比工具

MPT-7B-8K

发布机构

MosaicML
MosaicML
查看发布机构详情
MPT-7B-8K

模型解读

MPT最新的支持8K上下文长度的模型

基础模型

MPT
MPT
查看详情

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码