Mi

MiniMax-M1-40k

推理大模型

MiniMax-M1-40k

发布时间: 2025-06-16 7

模型参数(Parameters)
4560.0
最高上下文长度(Context Length)
1000K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

支持

最高上下文输入长度

1000K tokens

最长输出结果

81920 tokens

模型类型

推理大模型

发布时间

2025-06-16

模型预文件大小

912GB

开源和体验地址

API接口信息

接口速度(满分5分)
接口价格
输入价格:
  • 文本: 1.3 美元/100万tokens
  • 图片:
  • 音频:
  • 视频:
  • Embedding:
输出价格:
  • 文本: 2.2 美元/100 万tokens
  • 图片:
  • 音频:
  • 视频:
  • Embedding:

输入支持的模态

文本

输入支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

MiniMax-M1-40k模型在各大评测榜单的评分

评测基准名称
MMLU Pro
(知识问答)
评测结果:80.6
评测基准名称
HLE
(知识问答)
评测结果:7.2
评测基准名称
GPQA Diamond
(常识推理)
评测结果:69.2
评测基准名称
SimpleQA
(真实性评估)
评测结果:17.9
评测基准名称
SWE-bench Verified
(代码生成)
评测结果:55.6
评测基准名称
MATH-500
(数学推理)
评测结果:96.0
评测基准名称
AIME 2024
(数学推理)
评测结果:83.3
评测基准名称
LiveCodeBench
(代码生成)
评测结果:62.3
评测基准名称
AIME2025
(数学推理)
评测结果:74.6

发布机构

模型介绍

MiniMaxAI于2025年6月17日正式发布了其新一代大模型——MiniMax-M1。其中,MiniMax-M1-40k是M1系列中一个关键版本,它拥有40K Token的“思考预算”(即最大生成长度),代表了完整80K模型训练过程中的一个重要中间阶段,但其本身已是一款功能非常强大且表现卓越的开源推理模型。

MiniMax-M1-40k:核心特性与技术亮点

作为MiniMax-M1家族的一员,M1-40k继承了该系列架构的核心优势,并针对其40K的生成能力进行了优化:

  • 先进的混合架构: M1-40k同样基于混合专家(MoE)架构和革命性的闪电注意力(Lightning Attention)机制。这使其在保持强大推理能力的同时,实现了出色的计算效率。
  • 百万级上下文窗口: 尽管其最大生成长度为40K Token,M1-40k依然原生支持高达100万Token的超长上下文输入,这使其能够处理包含海量信息的复杂任务。
  • 高效的测试时计算: 闪电注意力机制使得M1-40k在生成长序列时,其FLOPs(浮点运算次数)消耗远低于传统注意力模型,这对于需要深度思考和较长输出的任务至关重要。例如,整个M1系列在生成10万Token时,FLOPs消耗仅为DeepSeek R1的25%。
  • 强大的推理基础: M1-40k受益于基于MiniMax-Text-01(4560亿总参数)的持续预训练和大规模强化学习(RL),特别是由创新的CISPO算法进行优化。

MiniMax-M1-40k:性能表现速览

MiniMax-M1-40k在多项基准测试中展现了其作为一款成熟模型的强大实力,尤其在特定复杂场景下表现突出:

图:领先商业和开源模型在各项基准测试中的性能对比(来源:MiniMax-M1 论文,示意图,具体M1-40k分数见下文)


根据MiniMaxAI发布的评测数据(Table 2),MiniMax-M1-40k取得了以下亮眼成绩:

  • 软件工程 (SWE-bench Verified): 达到了55.6%的准确率,证明其在解决真实世界GitHub问题的能力上,已达到开源模型中的领先水平。
  • 智能体工具使用 (TAU-bench airline): 获得了60.0%的高分,在模拟动态对话、使用API工具并遵守策略方面表现出色,甚至优于部分强大的闭源模型如Gemini 2.5 Pro (50.0%)。
  • 长上下文理解 (OpenAI-MRCR 128k): 取得了76.1%的优异成绩,大幅领先于多数其他开源模型,充分展现了其处理和理解长文本的能力。
  • 数学推理 (AIME 2024): 获得了83.3%的准确率,在竞争激烈的数学推理基准上表现稳健。
  • 通用编码 (LiveCodeBench): 成绩为62.3%,显示了其在多样化编程任务上的扎实能力。

这些数据表明,MiniMax-M1-40k并非仅仅是一个“中间版本”,而是一款在多个关键领域都能提供强大竞争力的实用模型。

训练背景与价值

MiniMax-M1-40k的开发得益于MiniMaxAI在高效RL扩展方面的深入研究。其训练不仅采用了包括数学、编码、逻辑推理、软件工程在内的多样化、高质量数据集,还应用了创新的CISPO强化学习算法。虽然它是向着更长“思考预算”(80K Token)迈进的一步,但其本身已经过充分的RL训练,使其能够在40K Token的生成范围内稳定输出高质量、具有深度思考的回复。

获取与使用

与M1系列的其他模型一样,MiniMaxAI已将MiniMax-M1-40k模型公开发布,致力于推动AI社区的共同进步:

  • 模型获取: 可在 GitHub (https://github.com/MiniMax-AI/MiniMax-M1) 和 Hugging Face 平台找到M1系列的权重和相关资源。
  • 框架支持: 模型支持 vLLM 和 Transformers 等主流推理框架,方便集成到现有工作流中。
  • 商业API: MiniMaxAI也通过 minimax.io 提供商业级API服务。

总结

MiniMax-M1-40k作为MiniMax-M1家族的重要成员,凭借其百万级上下文处理能力、40K Token的强大生成预算,以及由闪电注意力和CISPO算法带来的高效性与高性能,为开发者和研究者提供了一个极具吸引力的开源选择。它在软件工程、智能体工具使用和长上下文任务上的出色表现,使其特别适用于构建需要深度理解和复杂交互的AI应用。对于那些寻求在计算效率和强大推理能力之间取得平衡的用户而言,MiniMax-M1-40k无疑是一个值得重点关注和尝试的模型。

扩展链接:

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat