MMLU Pro
大模型已经对很多行业产生了巨大的影响,如何准确评测大模型的能力和效果,已经成为业界亟待解决的关键问题。生成式AI模型,如大型语言模型(LLMs),能够生成高质量的文本、代码、图像等内容,但其评测却相对很困难。而此前很多较早的评测也很难区分当前最优模型的能力。 以MMLU评测为例,2023年3月份,GPT-4在MMLU获得了86.4分之后,将近2年后的2024年年底,业界最好的大模型在MMLU上得分也就90.5,提升十分有限。 为此,滑铁卢大学、多伦多大学和卡耐基梅隆大学的研究人员一起提出了MMLU P
更新于 2026-04-16
3,163 次浏览
问题数量
38500
发布机构
Berkeley Artificial Intelligence Research
评测类别
综合评估
评测指标
Accuracy
支持语言
英文
难度等级
中等难度
简介
MMLU 的专业级别版本,包含更具挑战性的问题,旨在评估模型在专业领域的理解和推理能力。
相关资源
MMLU Pro 大模型得分排行榜
数据来源:DataLearnerAI
数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法
模式说明:
normal
thinking
low
medium
high
deeper thinking
parallel_thinking
图表加载中...
MMLU Pro评测最新大模型排名与完整榜单数据
查看 MMLU Pro 的最新得分、模型模式、发布时间与参数规模,快速了解当前完整榜单表现。
模型发布时间截止:
MMLU Pro详细排名数据表格
| 排名 | 模型 | |||
|---|---|---|---|---|
| 1 | 91.04 | 2024-12-05 | 未知 | |
| 2 | 90.00 | 2025-11-18 | 未知 | |
| 3 | 90.00 | 2025-11-25 | 未知 | |
| 4 | 88.50 | 2026-03-31 | 未知 | |
| 5 | 88.00 | 2025-08-06 | 未知 | |
| 6 | 88.00 | 2025-09-30 | 未知 | |
| 7 | M2.1 思考 | 88.00 | 2025-12-23 | 2300 |
| 8 | 87.80 | 2026-02-16 | 397 | |
| 9 | 87.20 | 2025-03-21 | 未知 | |
| 10 | Grok 4 思考 | 87.00 | 2025-07-10 | 未知 |
| 11 | GPT-4.5 常规 | 86.10 | 2025-02-28 | 未知 |
| 12 | 86.10 | 2026-02-25 | 270 | |
| 13 | 86.00 | 2025-06-05 | 未知 | |
| 14 | 85.70 | 2026-01-26 | 10000 | |
| 15 | 85.60 | 2025-04-16 | 未知 | |
| 16 | 85.20 | 2026-04-02 | 31 | |
| 17 | 85.20 | 2026-04-16 | 350 | |
| 18 | 85.00 | 2025-05-23 | 未知 | |
| 19 | 85.00 | 2025-05-28 | 6710 | |
| 20 | 85.00 | 2025-08-20 | 6710 | |
| 21 | 85.00 | 2025-09-22 | 6710 | |
| 22 | 85.00 | 2025-09-22 | 6710 | |
| 23 | 85.00 | 2025-09-29 | 6710 | |
| 24 | 85.00 | 2025-11-19 | 未知 | |
| 25 | GLM-4.5 思考 | 84.60 | 2025-07-28 | 3550 |
| 26 | 84.60 | 2025-11-06 | 10400 | |
| 27 | 84.40 | 2025-07-25 | 2350 | |
| 28 | 84.40 | 2025-07-30 | 305 | |
| 29 | GLM-4.7 思考 | 84.30 | 2025-12-22 | 3580 |
| 30 | 84.00 | 2025-01-20 | 6710 |
滚动或悬停加载剩余 87 条