MI

MiniMax-M1-40k

MiniMax-M1-40k

发布时间: 2025-06-16700
模型参数
4560.0亿
上下文长度
1000K
中文支持
支持
推理能力

模型基本信息

推理过程
支持
上下文长度
1000K tokens
最大输出长度
81920 tokens
模型类型
推理大模型
发布时间
2025-06-16
模型文件大小
912GB
MoE架构
总参数 / 激活参数
4560.0 亿 / 不涉及
知识截止
暂无数据
推理模式
暂无模式数据

开源和体验地址

官方介绍与博客

API接口信息

接口速度
2/5
💡默认单位:$/100万 tokens。若计费单位不同,则以供应商公开的原始标注为准。
标准计费Standard
模态输入输出
文本$1.3$2.2

评测得分

综合评估

共 3 项评测
评测名称 / 模式
得分
排名/总数
MMLU Pronormal
80.60
39 / 109
69.20
80 / 140
HLEnormal
7.20
68 / 81

常识问答

共 1 项评测
评测名称 / 模式
得分
排名/总数
SimpleQAnormal
17.90
32 / 44

编程与软件工程

共 2 项评测
评测名称 / 模式
得分
排名/总数
62.30
48 / 99
55.60
52 / 72

数学推理

共 3 项评测
评测名称 / 模式
得分
排名/总数
MATH-500normal
96
22 / 42
AIME 2024normal
83.30
23 / 62
AIME2025normal
74.60
62 / 100

发布机构

模型解读

MiniMaxAI于2025年6月17日正式发布了其新一代大模型——MiniMax-M1。其中,MiniMax-M1-40k是M1系列中一个关键版本,它拥有40K Token的“思考预算”(即最大生成长度),代表了完整80K模型训练过程中的一个重要中间阶段,但其本身已是一款功能非常强大且表现卓越的开源推理模型。

MiniMax-M1-40k:核心特性与技术亮点

作为MiniMax-M1家族的一员,M1-40k继承了该系列架构的核心优势,并针对其40K的生成能力进行了优化:

  • 先进的混合架构: M1-40k同样基于混合专家(MoE)架构和革命性的闪电注意力(Lightning Attention)机制。这使其在保持强大推理能力的同时,实现了出色的计算效率。
  • 百万级上下文窗口: 尽管其最大生成长度为40K Token,M1-40k依然原生支持高达100万Token的超长上下文输入,这使其能够处理包含海量信息的复杂任务。
  • 高效的测试时计算: 闪电注意力机制使得M1-40k在生成长序列时,其FLOPs(浮点运算次数)消耗远低于传统注意力模型,这对于需要深度思考和较长输出的任务至关重要。例如,整个M1系列在生成10万Token时,FLOPs消耗仅为DeepSeek R1的25%。
  • 强大的推理基础: M1-40k受益于基于MiniMax-Text-01(4560亿总参数)的持续预训练和大规模强化学习(RL),特别是由创新的CISPO算法进行优化。

MiniMax-M1-40k:性能表现速览

MiniMax-M1-40k在多项基准测试中展现了其作为一款成熟模型的强大实力,尤其在特定复杂场景下表现突出:

图:领先商业和开源模型在各项基准测试中的性能对比(来源:MiniMax-M1 论文,示意图,具体M1-40k分数见下文)


根据MiniMaxAI发布的评测数据(Table 2),MiniMax-M1-40k取得了以下亮眼成绩:

  • 软件工程 (SWE-bench Verified): 达到了55.6%的准确率,证明其在解决真实世界GitHub问题的能力上,已达到开源模型中的领先水平。
  • 智能体工具使用 (TAU-bench airline): 获得了60.0%的高分,在模拟动态对话、使用API工具并遵守策略方面表现出色,甚至优于部分强大的闭源模型如Gemini 2.5 Pro (50.0%)。
  • 长上下文理解 (OpenAI-MRCR 128k): 取得了76.1%的优异成绩,大幅领先于多数其他开源模型,充分展现了其处理和理解长文本的能力。
  • 数学推理 (AIME 2024): 获得了83.3%的准确率,在竞争激烈的数学推理基准上表现稳健。
  • 通用编码 (LiveCodeBench): 成绩为62.3%,显示了其在多样化编程任务上的扎实能力。

这些数据表明,MiniMax-M1-40k并非仅仅是一个“中间版本”,而是一款在多个关键领域都能提供强大竞争力的实用模型。

训练背景与价值

MiniMax-M1-40k的开发得益于MiniMaxAI在高效RL扩展方面的深入研究。其训练不仅采用了包括数学、编码、逻辑推理、软件工程在内的多样化、高质量数据集,还应用了创新的CISPO强化学习算法。虽然它是向着更长“思考预算”(80K Token)迈进的一步,但其本身已经过充分的RL训练,使其能够在40K Token的生成范围内稳定输出高质量、具有深度思考的回复。

获取与使用

与M1系列的其他模型一样,MiniMaxAI已将MiniMax-M1-40k模型公开发布,致力于推动AI社区的共同进步:

  • 模型获取: 可在 GitHub (https://github.com/MiniMax-AI/MiniMax-M1) 和 Hugging Face 平台找到M1系列的权重和相关资源。
  • 框架支持: 模型支持 vLLM 和 Transformers 等主流推理框架,方便集成到现有工作流中。
  • 商业API: MiniMaxAI也通过 minimax.io 提供商业级API服务。

总结

MiniMax-M1-40k作为MiniMax-M1家族的重要成员,凭借其百万级上下文处理能力、40K Token的强大生成预算,以及由闪电注意力和CISPO算法带来的高效性与高性能,为开发者和研究者提供了一个极具吸引力的开源选择。它在软件工程、智能体工具使用和长上下文任务上的出色表现,使其特别适用于构建需要深度理解和复杂交互的AI应用。对于那些寻求在计算效率和强大推理能力之间取得平衡的用户而言,MiniMax-M1-40k无疑是一个值得重点关注和尝试的模型。

扩展链接:

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码