DataLearner logoDataLearnerAI
Latest AI Insights
Model Leaderboards
Benchmarks
Model Directory
Model Comparison
Resource Center
Tools
LanguageEnglish
DataLearner logoDataLearner AI

A knowledge platform focused on LLM benchmarking, datasets, and practical instruction with continuously updated capability maps.

Products

  • Leaderboards
  • Model comparison
  • Datasets

Resources

  • Tutorials
  • Editorial
  • Tool directory

Company

  • About
  • Privacy policy
  • Data methodology
  • Contact

© 2026 DataLearner AI. DataLearner curates industry data and case studies so researchers, enterprises, and developers can rely on trustworthy intelligence.

Privacy policyTerms of service
Page navigation
目录
Model catalogMiniMax-M1-40k
MI

MiniMax-M1-40k

推理大模型

MiniMax-M1-40k

Release date: 2025-06-16更新于: 2025-06-17 13:42:18984
Live demoGitHubHugging FaceCompare
Parameters
4560.0亿
Context length
1000K
Chinese support
Supported
Reasoning ability

MiniMax-M1-40k is an AI model published by MiniMaxAI, released on 2025-06-16, for 推理大模型, with 4560.0B parameters, and 1000K tokens context length, requiring about 912GB storage, under the MINIMAX MODEL LICENSE license.

Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology

MiniMax-M1-40k

Model basics

Reasoning traces
Supported
Thinking modes
Thinking modes not supported
Context length
1000K tokens
Max output length
81920 tokens
Model type
推理大模型
Release date
2025-06-16
Model file size
912GB
MoE architecture
No
Total params / Active params
4560.0B / N/A
Knowledge cutoff
No data
MiniMax-M1-40k

Open source & experience

Code license
MIT License
Weights license
MINIMAX MODEL LICENSE- 免费商用授权
GitHub repo
https://github.com/MiniMax-AI/MiniMax-M1
Hugging Face
https://huggingface.co/MiniMaxAI/MiniMax-M1-40k
Live demo
https://huggingface.co/spaces/MiniMaxAI/MiniMax-M1
MiniMax-M1-40k

Official resources

Paper
MiniMax-M1: Scaling Test-Time Compute Efficiently with Lightning Attention
DataLearnerAI blog
MiniMax 发布 MiniMax-Text-01 模型:聚焦超长上下文与线性注意力技术
MiniMax-M1-40k

API details

API speed
2/5
💡Default unit: $/1M tokens. If vendors use other units, follow their published pricing.
Standard pricingStandard
ModalityInputOutput
Text$1.3$2.2
MiniMax-M1-40k

Benchmark Results

MiniMax-M1-40k currently shows benchmark results led by AIME 2024 (23 / 62, score 83.30), MMLU Pro (46 / 117, score 80.60), LiveCodeBench (58 / 109, score 62.30). This page also consolidates core specs, context limits, and API pricing so you can evaluate the model from benchmark results and deployment constraints together.

Thinking
All modesNormal

综合评估

3 evaluations
Benchmark / mode
Score
Rank/total
MMLU Pro
Off
80.60
46 / 117
GPQA Diamond
Off
69.20
105 / 166
HLE
Off
7.20
117 / 131

常识问答

1 evaluations
Benchmark / mode
Score
Rank/total
SimpleQA
Off
17.90
33 / 45

编程与软件工程

2 evaluations
Benchmark / mode
Score
Rank/total
LiveCodeBench
Off
62.30
58 / 109
SWE-bench Verified
Off
55.60
71 / 96

数学推理

3 evaluations
Benchmark / mode
Score
Rank/total
MATH-500
Off
96
23 / 43
AIME 2024
Off
83.30
23 / 62
AIME2025
Off
74.60
68 / 106
View benchmark analysisCompare with other models
MiniMax-M1-40k

Publisher

MiniMaxAI
MiniMaxAI
View publisher details
MiniMax-M1-40k

Model Overview

MiniMaxAI于2025年6月17日正式发布了其新一代大模型——MiniMax-M1。其中,MiniMax-M1-40k是M1系列中一个关键版本,它拥有40K Token的“思考预算”(即最大生成长度),代表了完整80K模型训练过程中的一个重要中间阶段,但其本身已是一款功能非常强大且表现卓越的开源推理模型。

MiniMax-M1-40k:核心特性与技术亮点

作为MiniMax-M1家族的一员,M1-40k继承了该系列架构的核心优势,并针对其40K的生成能力进行了优化:

  • 先进的混合架构: M1-40k同样基于混合专家(MoE)架构和革命性的闪电注意力(Lightning Attention)机制。这使其在保持强大推理能力的同时,实现了出色的计算效率。
  • 百万级上下文窗口: 尽管其最大生成长度为40K Token,M1-40k依然原生支持高达100万Token的超长上下文输入,这使其能够处理包含海量信息的复杂任务。
  • 高效的测试时计算: 闪电注意力机制使得M1-40k在生成长序列时,其FLOPs(浮点运算次数)消耗远低于传统注意力模型,这对于需要深度思考和较长输出的任务至关重要。例如,整个M1系列在生成10万Token时,FLOPs消耗仅为DeepSeek R1的25%。
  • 强大的推理基础: M1-40k受益于基于MiniMax-Text-01(4560亿总参数)的持续预训练和大规模强化学习(RL),特别是由创新的CISPO算法进行优化。

MiniMax-M1-40k:性能表现速览

MiniMax-M1-40k在多项基准测试中展现了其作为一款成熟模型的强大实力,尤其在特定复杂场景下表现突出:

图:领先商业和开源模型在各项基准测试中的性能对比(来源:MiniMax-M1 论文,示意图,具体M1-40k分数见下文)


根据MiniMaxAI发布的评测数据(Table 2),MiniMax-M1-40k取得了以下亮眼成绩:

  • 软件工程 (SWE-bench Verified): 达到了55.6%的准确率,证明其在解决真实世界GitHub问题的能力上,已达到开源模型中的领先水平。
  • 智能体工具使用 (TAU-bench airline): 获得了60.0%的高分,在模拟动态对话、使用API工具并遵守策略方面表现出色,甚至优于部分强大的闭源模型如Gemini 2.5 Pro (50.0%)。
  • 长上下文理解 (OpenAI-MRCR 128k): 取得了76.1%的优异成绩,大幅领先于多数其他开源模型,充分展现了其处理和理解长文本的能力。
  • 数学推理 (AIME 2024): 获得了83.3%的准确率,在竞争激烈的数学推理基准上表现稳健。
  • 通用编码 (LiveCodeBench): 成绩为62.3%,显示了其在多样化编程任务上的扎实能力。

这些数据表明,MiniMax-M1-40k并非仅仅是一个“中间版本”,而是一款在多个关键领域都能提供强大竞争力的实用模型。

训练背景与价值

MiniMax-M1-40k的开发得益于MiniMaxAI在高效RL扩展方面的深入研究。其训练不仅采用了包括数学、编码、逻辑推理、软件工程在内的多样化、高质量数据集,还应用了创新的CISPO强化学习算法。虽然它是向着更长“思考预算”(80K Token)迈进的一步,但其本身已经过充分的RL训练,使其能够在40K Token的生成范围内稳定输出高质量、具有深度思考的回复。

获取与使用

与M1系列的其他模型一样,MiniMaxAI已将MiniMax-M1-40k模型公开发布,致力于推动AI社区的共同进步:

  • 模型获取: 可在 GitHub (https://github.com/MiniMax-AI/MiniMax-M1) 和 Hugging Face 平台找到M1系列的权重和相关资源。
  • 框架支持: 模型支持 vLLM 和 Transformers 等主流推理框架,方便集成到现有工作流中。
  • 商业API: MiniMaxAI也通过 minimax.io 提供商业级API服务。

总结

MiniMax-M1-40k作为MiniMax-M1家族的重要成员,凭借其百万级上下文处理能力、40K Token的强大生成预算,以及由闪电注意力和CISPO算法带来的高效性与高性能,为开发者和研究者提供了一个极具吸引力的开源选择。它在软件工程、智能体工具使用和长上下文任务上的出色表现,使其特别适用于构建需要深度理解和复杂交互的AI应用。对于那些寻求在计算效率和强大推理能力之间取得平衡的用户而言,MiniMax-M1-40k无疑是一个值得重点关注和尝试的模型。

扩展链接:

  • MiniMax-M1 GitHub仓库: https://github.com/MiniMax-AI/MiniMax-M1

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码