IMO-AnswerBench
IMO-Bench 是 Google DeepMind 开发的一套基准测试套件,针对国际数学奥林匹克(IMO)水平的数学问题设计,用于评估大型语言模型在数学推理方面的能力。该基准包括三个子基准:AnswerBench、ProofBench 和 GradingBench,涵盖从短答案验证到完整证明生成和评分的全过程。发布于 2025 年 11 月,该基准通过专家审核的问题集,帮助模型实现 IMO 金牌级别的性能,并提供自动评分机制以支持大规模评估。
更新于 2026-04-16
744 次浏览
问题数量
400
发布机构
DeepMind
评测类别
数学推理
评测指标
Accuracy
支持语言
英文
难度等级
高难度
简介
用于测试大模型在高难度(国际奥林匹克数学竞赛)数学问题上的回答能力
相关资源
IMO-AnswerBench 大模型得分排行榜
数据来源:DataLearnerAI
数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法
模式说明:
normal
thinking
low
medium
high
deeper thinking
parallel_thinking
图表加载中...
IMO-AnswerBench评测最新大模型排名与完整榜单数据
查看 IMO-AnswerBench 的最新得分、模型模式、发布时间与参数规模,快速了解当前完整榜单表现。
模型发布时间截止:
IMO-AnswerBench详细排名数据表格
| 排名 | 模型 | |||
|---|---|---|---|---|
| 1 | Step 3.5 Flash 思考工具 | 86.70 | 2026-02-02 | 1960 |
| 2 | 85.40 | 2026-02-02 | 1960 | |
| 3 | 83.90 | 2026-01-26 | 10000 | |
| 4 | GLM 5.1 思考 | 83.80 | 2026-03-27 | 754 |
| 5 | 83.80 | 2026-03-31 | 未知 | |
| 6 | GLM-5 思考 | 82.50 | 2026-02-11 | 7440 |
| 7 | 81.80 | 2026-01-27 | 10000 | |
| 8 | 80.90 | 2026-02-16 | 397 | |
| 9 | 78.90 | 2026-04-16 | 350 |