Mi

MiniMax-M1-80k

推理大模型

MiniMax-M1-80k

发布时间: 2025-06-16 11

模型参数(Parameters)
4560.0
最高上下文长度(Context Length)
1000K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

支持

最高上下文输入长度

1000K tokens

最长输出结果

81920 tokens

模型类型

推理大模型

发布时间

2025-06-16

模型预文件大小

912GB

开源和体验地址

API接口信息

接口速度(满分5分)
接口价格
输入价格:
  • 文本: 1.3 美元/100万tokens
  • 图片:
  • 音频:
  • 视频:
  • Embedding:
输出价格:
  • 文本: 2.2 美元/100 万tokens
  • 图片:
  • 音频:
  • 视频:
  • Embedding:

输入支持的模态

文本

输入支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

MiniMax-M1-80k模型在各大评测榜单的评分

评测基准名称
MMLU Pro
(知识问答)
评测结果:81.1
评测基准名称
HLE
(知识问答)
评测结果:8.4
评测基准名称
GPQA Diamond
(常识推理)
评测结果:70.0
评测基准名称
SimpleQA
(真实性评估)
评测结果:18.5
评测基准名称
SWE-bench Verified
(代码生成)
评测结果:56.0
评测基准名称
MATH-500
(数学推理)
评测结果:96.8
评测基准名称
AIME 2024
(数学推理)
评测结果:86.0
评测基准名称
LiveCodeBench
(代码生成)
评测结果:65.0
评测基准名称
AIME2025
(数学推理)
评测结果:76.9

发布机构

模型介绍

MiniMaxAI于2025年6月17日正式发布了其新一代大模型——MiniMax-M1。其中,MiniMax-M1-80k是M1系列中的旗舰版本,它拥有高达80K Token的“思考预算”(即最大生成长度),代表了当前MiniMaxAI在开源大型推理模型领域的最高水准,专为需要极致深度思考和超长内容生成的复杂任务而设计,其能力非常强大

MiniMax-M1-80k:核心特性与“极致”思考能力

作为MiniMax-M1系列的完整体现,M1-80k不仅继承了该系列开创性的架构设计,更将其“扩展思考”的能力推向了新的高度:

  • 顶尖混合架构与闪电注意力: M1-80k同样构建于混合专家(MoE)架构之上,并搭载了高效的闪电注意力(Lightning Attention)机制。这一组合确保了模型在处理大规模计算时的卓越效率与性能。
  • 百万级上下文与80K生成: 它原生支持100万Token的超长上下文输入,并能生成长达80K Token的输出。这意味着M1-80k能够消化极为庞大的信息量,并进行更深层次的思考和更详尽的解决方案生成。
  • 最大化测试时计算扩展: 80K的生成长度充分体现了M1架构在“测试时计算扩展”(scaling test-time compute)方面的优势。通过投入更多的计算资源进行更长的推理过程,模型在复杂任务上的表现得到显著提升。
  • 深度强化学习优化: M1-80k是经过完整且针对性强化学习(RL)流程的产物,采用了创新的CISPO算法,并在训练数据、长度扩展策略及稳定性方面进行了特别优化,以充分发挥其长程推理潜力。

MiniMax-M1-80k:性能表现新高度

相较于M1-40k,MiniMax-M1-80k在多个关键基准测试中展现了进一步的性能提升,特别是在对思考深度和长度要求极高的任务上:

图:领先商业和开源模型在各项基准测试中的性能对比(来源:MiniMax-M1 论文,示意图,具体M1-80k分数见下文)


根据MiniMaxAI发布的评测数据(Table 2),MiniMax-M1-80k的卓越性能体现在:

基准测试MiniMax-M1-40kMiniMax-M1-80k突出表现 (M1-80k)
数学 (AIME 2024)83.3%86.0%开源模型中名列前茅,展现更强数学推理能力
数学 (AIME 2025)74.6%76.9%在更具挑战性的新基准上持续提升
通用编码 (LiveCodeBench)62.3%65.0%编程能力进一步增强,与Qwen3-235B持平
软件工程 (SWE-bench Verified)55.6%56.0%在复杂真实世界代码任务上表现更佳
长上下文 (OpenAI-MRCR 128k)76.1%73.4%*依然顶尖,*此处分数略低于40k,可能与特定评测设置或数据分布有关,但整体长上下文能力强大
智能体工具使用 (TAU-bench airline)60.0%62.0%工具使用熟练度更高,超越众多模型

表格2:MiniMax-M1-40k与M1-80k在部分核心基准上的性能对比 (数据来源: MiniMax-M1 论文 Table 2)


这些数据清晰地表明,通过扩展测试时计算(即增加生成长度),MiniMax-M1-80k在多数复杂任务上实现了性能的进一步提升,验证了其架构设计和训练策略的成功。

专为扩展思考而生的训练优化

MiniMax-M1-80k的卓越性能并非简单地延长输出,而是源于一系列精心的训练优化:

  • 数据精选与调整: 在40K模型基础上,为80K训练筛选了更具挑战性的数学和编码难题,并适当降低了可能导致长上下文训练不稳定的合成推理数据比例。
  • 分阶段长度扩展: 采用从40K逐步到48K、56K直至80K的分阶段窗口扩展RL策略,确保了训练过程的稳定性和模型对长序列的逐步适应。
  • 不稳定性问题解决: 针对长序列生成后期可能出现的模式崩溃问题,实施了包括重复模式检测与早停、样本级与Token级损失归一化结合、降低梯度裁剪阈值等关键技术,有效保障了长程生成的质量和稳定性。

获取与使用

MiniMaxAI致力于开源共享,MiniMax-M1-80k作为其当前最强大的开源推理模型,同样对社区开放:

  • 模型获取: 可在 GitHub (https://github.com/MiniMax-AI/MiniMax-M1) 和 Hugging Face 平台找到M1系列的权重和相关资源。
  • 框架支持: 模型支持 vLLM 和 Transformers 等主流推理框架,方便集成到现有工作流中。
  • 商业API: MiniMaxAI也通过 minimax.io 提供商业级API服务。

总结

MiniMax-M1-80k代表了当前开源大型推理模型在扩展思考和长上下文处理能力上的新标杆。凭借其高达80K Token的生成预算、百万级上下文窗口、创新的闪电注意力和高效的CISPO强化学习,M1-80k在各项复杂任务,尤其是需要深度推理和详尽输出的场景中,展现了世界一流的性能。对于追求极致AI推理能力的研究者和开发者而言,MiniMax-M1-80k无疑是一个不容错过的强大工具。

扩展链接:

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat