MMMU 评测基准详情

96

大规模多学科多模态理解与推理基准(MMMU)于2023年11月推出,是一种用于评估多模态模型的复杂工具。该基准测试人工智能系统在需要大学水平学科知识和深思熟虑推理的任务上的能力。与之前的基准不同,MMMU强调跨多个领域的先进感知和推理,旨在衡量朝专家级人工智能通用智能(AGI)的进展。

模型模式说明

不同模式会显著影响成绩,请在对比榜单时留意标签提示。

提示:若某条记录未显示任何标签,即默认是 normal 常规模式。

normal

常规推理:单步推理,不延长思考、也不调用额外工具。

thinking low medium high

Thinking 系列:常规延长思考时间,low/medium/high 代表不同耗时或深度,各厂商叫法不同。

deeper thinking

Deeper thinking:在 Thinking 基础上进一步延长思考链条,通常意味着更多算力与时间。

使用工具 / 联网

允许调用检索、浏览器、代码解释器等外部能力。

parallel_thinking

并行思考:多线程/多代理协同探索再汇总,通常只在厂商内部实验环境中启用、尚未对外开放,因此被视为“作弊”模式。

MMMU 大模型得分排行榜

数据来源:DataLearnerAI

MMMU详细排名数据表格

默认:仅展示常规/非并行的评测结果,可按需查看并行思考成绩。

默认隐藏并行思考结果。

排名
模型
得分
发布时间
参数(亿)
1
85.4
2025-11-12
未知
MMMU得分 85.4
发布时间 2025-11-12
参数(亿) 未知
查看模型详情
2
OpenAI Logo
GPT-5 high
84.2
2025-08-07
未知
MMMU得分 84.2
发布时间 2025-08-07
参数(亿) 未知
查看模型详情
3
82.9
2025-04-16
未知
MMMU得分 82.9
发布时间 2025-04-16
参数(亿) 未知
查看模型详情
4
OpenAI Logo
OpenAI o3 thinking
82.9
2025-04-16
未知
MMMU得分 82.9
发布时间 2025-04-16
参数(亿) 未知
查看模型详情
5
Google Deep Mind Logo
Gemini 2.5-Pro thinking
82.0
2025-06-05
未知
MMMU得分 82.0
发布时间 2025-06-05
参数(亿) 未知
查看模型详情
6
79.6
2025-05-06
未知
MMMU得分 79.6
发布时间 2025-05-06
参数(亿) 未知
查看模型详情
7
76.5
2025-05-23
未知
MMMU得分 76.5
发布时间 2025-05-23
参数(亿) 未知
查看模型详情
8
74.2
2025-07-31
3210.0
MMMU得分 74.2
发布时间 2025-07-31
参数(亿) 3210.0
查看模型详情
9
Anthropic Logo
Haiku 4.5 thinking
73.2
2025-10-15
未知
MMMU得分 73.2
发布时间 2025-10-15
参数(亿) 未知
查看模型详情
10
72.7
2025-09-25
未知
MMMU得分 72.7
发布时间 2025-09-25
参数(亿) 未知
查看模型详情
11
70.2
2025-01-28
720.0
MMMU得分 70.2
发布时间 2025-01-28
参数(亿) 720.0
查看模型详情
12
70.0
2025-06-30
4240.0
MMMU得分 70.0
发布时间 2025-06-30
参数(亿) 4240.0
查看模型详情
13
69.6
2025-10-15
88.0
MMMU得分 69.6
发布时间 2025-10-15
参数(亿) 88.0
查看模型详情
14
67.4
2025-10-15
40.0
MMMU得分 67.4
发布时间 2025-10-15
参数(亿) 40.0
查看模型详情
15
57.6
2025-08-07
未知
MMMU得分 57.6
发布时间 2025-08-07
参数(亿) 未知
查看模型详情