DataLearner logoDataLearnerAI
Latest AI Insights
Model Leaderboards
Benchmarks
Model Directory
Model Comparison
Resource Center
Tools
LanguageEnglish
DataLearner logoDataLearner AI

A knowledge platform focused on LLM benchmarking, datasets, and practical instruction with continuously updated capability maps.

Products

  • Leaderboards
  • Model comparison
  • Datasets

Resources

  • Tutorials
  • Editorial
  • Tool directory

Company

  • About
  • Privacy policy
  • Data methodology
  • Contact

© 2026 DataLearner AI. DataLearner curates industry data and case studies so researchers, enterprises, and developers can rely on trustworthy intelligence.

Privacy policyTerms of service
Page navigation
目录
Model catalogMiniMax-M1-80k
MI

MiniMax-M1-80k

推理大模型

MiniMax-M1-80k

Release date: 2025-06-16更新于: 2025-06-17 13:42:351,149
Live demoGitHubHugging FaceCompare
Parameters
4560.0亿
Context length
1000K
Chinese support
Supported
Reasoning ability

MiniMax-M1-80k is an AI model published by MiniMaxAI, released on 2025-06-16, for 推理大模型, with 4560.0B parameters, and 1000K tokens context length, requiring about 912GB storage, under the MINIMAX MODEL LICENSE license.

Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology

MiniMax-M1-80k

Model basics

Reasoning traces
Supported
Thinking modes
Thinking modes not supported
Context length
1000K tokens
Max output length
81920 tokens
Model type
推理大模型
Release date
2025-06-16
Model file size
912GB
MoE architecture
No
Total params / Active params
4560.0B / N/A
Knowledge cutoff
No data
MiniMax-M1-80k

Open source & experience

Code license
MIT License
Weights license
MINIMAX MODEL LICENSE- 免费商用授权
GitHub repo
https://github.com/MiniMax-AI/MiniMax-M1
Hugging Face
https://huggingface.co/MiniMaxAI/MiniMax-M1-40k
Live demo
https://huggingface.co/spaces/MiniMaxAI/MiniMax-M1
MiniMax-M1-80k

Official resources

Paper
MiniMax-M1: Scaling Test-Time Compute Efficiently with Lightning Attention
DataLearnerAI blog
MiniMax 发布 MiniMax-Text-01 模型:聚焦超长上下文与线性注意力技术
MiniMax-M1-80k

API details

API speed
2/5
💡Default unit: $/1M tokens. If vendors use other units, follow their published pricing.
Standard pricingStandard
ModalityInputOutput
Text$1.3$2.2
MiniMax-M1-80k

Benchmark Results

MiniMax-M1-80k currently shows benchmark results led by AIME 2024 (19 / 62, score 86), MATH-500 (15 / 43, score 96.80), MMLU Pro (44 / 117, score 81.10). This page also consolidates core specs, context limits, and API pricing so you can evaluate the model from benchmark results and deployment constraints together.

Thinking
All modesNormal

综合评估

3 evaluations
Benchmark / mode
Score
Rank/total
MMLU Pro
Off
81.10
44 / 117
GPQA Diamond
Off
70
102 / 166
HLE
Off
8.40
114 / 131

常识问答

1 evaluations
Benchmark / mode
Score
Rank/total
SimpleQA
Off
18.50
32 / 45

编程与软件工程

2 evaluations
Benchmark / mode
Score
Rank/total
LiveCodeBench
Off
65
55 / 109
SWE-bench Verified
Off
56
70 / 96

数学推理

3 evaluations
Benchmark / mode
Score
Rank/total
MATH-500
Off
96.80
15 / 43
AIME 2024
Off
86
19 / 62
AIME2025
Off
76.90
63 / 106
View benchmark analysisCompare with other models
MiniMax-M1-80k

Publisher

MiniMaxAI
MiniMaxAI
View publisher details
MiniMax-M1-80k

Model Overview

MiniMaxAI于2025年6月17日正式发布了其新一代大模型——MiniMax-M1。其中,MiniMax-M1-80k是M1系列中的旗舰版本,它拥有高达80K Token的“思考预算”(即最大生成长度),代表了当前MiniMaxAI在开源大型推理模型领域的最高水准,专为需要极致深度思考和超长内容生成的复杂任务而设计,其能力非常强大!

MiniMax-M1-80k:核心特性与“极致”思考能力

作为MiniMax-M1系列的完整体现,M1-80k不仅继承了该系列开创性的架构设计,更将其“扩展思考”的能力推向了新的高度:

  • 顶尖混合架构与闪电注意力: M1-80k同样构建于混合专家(MoE)架构之上,并搭载了高效的闪电注意力(Lightning Attention)机制。这一组合确保了模型在处理大规模计算时的卓越效率与性能。
  • 百万级上下文与80K生成: 它原生支持100万Token的超长上下文输入,并能生成长达80K Token的输出。这意味着M1-80k能够消化极为庞大的信息量,并进行更深层次的思考和更详尽的解决方案生成。
  • 最大化测试时计算扩展: 80K的生成长度充分体现了M1架构在“测试时计算扩展”(scaling test-time compute)方面的优势。通过投入更多的计算资源进行更长的推理过程,模型在复杂任务上的表现得到显著提升。
  • 深度强化学习优化: M1-80k是经过完整且针对性强化学习(RL)流程的产物,采用了创新的CISPO算法,并在训练数据、长度扩展策略及稳定性方面进行了特别优化,以充分发挥其长程推理潜力。

MiniMax-M1-80k:性能表现新高度

相较于M1-40k,MiniMax-M1-80k在多个关键基准测试中展现了进一步的性能提升,特别是在对思考深度和长度要求极高的任务上:

图:领先商业和开源模型在各项基准测试中的性能对比(来源:MiniMax-M1 论文,示意图,具体M1-80k分数见下文)


根据MiniMaxAI发布的评测数据(Table 2),MiniMax-M1-80k的卓越性能体现在:

基准测试MiniMax-M1-40kMiniMax-M1-80k突出表现 (M1-80k)
数学 (AIME 2024)83.3%86.0%开源模型中名列前茅,展现更强数学推理能力
数学 (AIME 2025)74.6%76.9%在更具挑战性的新基准上持续提升
通用编码 (LiveCodeBench)62.3%65.0%编程能力进一步增强,与Qwen3-235B持平
软件工程 (SWE-bench Verified)55.6%56.0%在复杂真实世界代码任务上表现更佳
长上下文 (OpenAI-MRCR 128k)76.1%73.4%*依然顶尖,*此处分数略低于40k,可能与特定评测设置或数据分布有关,但整体长上下文能力强大
智能体工具使用 (TAU-bench airline)60.0%62.0%工具使用熟练度更高,超越众多模型

表格2:MiniMax-M1-40k与M1-80k在部分核心基准上的性能对比 (数据来源: MiniMax-M1 论文 Table 2)


这些数据清晰地表明,通过扩展测试时计算(即增加生成长度),MiniMax-M1-80k在多数复杂任务上实现了性能的进一步提升,验证了其架构设计和训练策略的成功。

专为扩展思考而生的训练优化

MiniMax-M1-80k的卓越性能并非简单地延长输出,而是源于一系列精心的训练优化:

  • 数据精选与调整: 在40K模型基础上,为80K训练筛选了更具挑战性的数学和编码难题,并适当降低了可能导致长上下文训练不稳定的合成推理数据比例。
  • 分阶段长度扩展: 采用从40K逐步到48K、56K直至80K的分阶段窗口扩展RL策略,确保了训练过程的稳定性和模型对长序列的逐步适应。
  • 不稳定性问题解决: 针对长序列生成后期可能出现的模式崩溃问题,实施了包括重复模式检测与早停、样本级与Token级损失归一化结合、降低梯度裁剪阈值等关键技术,有效保障了长程生成的质量和稳定性。

获取与使用

MiniMaxAI致力于开源共享,MiniMax-M1-80k作为其当前最强大的开源推理模型,同样对社区开放:

  • 模型获取: 可在 GitHub (https://github.com/MiniMax-AI/MiniMax-M1) 和 Hugging Face 平台找到M1系列的权重和相关资源。
  • 框架支持: 模型支持 vLLM 和 Transformers 等主流推理框架,方便集成到现有工作流中。
  • 商业API: MiniMaxAI也通过 minimax.io 提供商业级API服务。

总结

MiniMax-M1-80k代表了当前开源大型推理模型在扩展思考和长上下文处理能力上的新标杆。凭借其高达80K Token的生成预算、百万级上下文窗口、创新的闪电注意力和高效的CISPO强化学习,M1-80k在各项复杂任务,尤其是需要深度推理和详尽输出的场景中,展现了世界一流的性能。对于追求极致AI推理能力的研究者和开发者而言,MiniMax-M1-80k无疑是一个不容错过的强大工具。

扩展链接:

  • MiniMax-M1 GitHub仓库: https://github.com/MiniMax-AI/MiniMax-M1

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码