IMO-Bench:谷歌发布的用于大模型数学推理的鲁棒评估基准

IMO-Bench 是 Google DeepMind 开发的一套基准测试套件,针对国际数学奥林匹克(IMO)水平的数学问题设计,用于评估大型语言模型在数学推理方面的能力。该基准包括三个子基准:AnswerBench、ProofBench 和 GradingBench,涵盖从短答案验证到完整证明生成和评分的全过程。发布于 2025 年 11 月,该基准通过专家审核的问题集,帮助模型实现 IMO 金牌级别的性能,并提供自动评分机制以支持大规模评估。

关于IMO-ProofBench的详细评测排行榜参考DataLearnerAI的大模型IMO-ProofBench评测排行榜:https://www.datalearner.com/benchmarks/imo-proof-bench

AI 数学评测的当前挑战

当前的大模型数学评测基准存在多项局限性。首先,许多基准的问题难度较低,仅涉及基本公式应用,无法反映 IMO 级别的多步推理和创造性要求。其次,现有的评估方法多局限于最终短答案的正确性匹配,忽略了推理过程的严谨性和完整性,导致模型可能通过记忆或模式匹配获得高分,而非真正理解数学结构。此外,缺乏可靠的自动评分工具,使得对长形式证明的评估依赖人工,限制了基准的扩展性和实用性。这些问题阻碍了对模型鲁棒数学推理能力的全面衡量。

IMO-Bench 的背景与目标

IMO-Bench 由 Google DeepMind 的研究团队开发,包括 Thang Luong、Dawsen Hwang 等作者,于 2025 年 11 月在 arXiv(2511.01846v1)发布,相关论文标题为《Towards Robust Mathematical Reasoning》。基准的问题集经 IMO 金银牌获得者组成的专家小组审核,总计超过 1400 个实例,来源于过去奥林匹克竞赛,但经修改以避免模型记忆。

该基准旨在解决现有评测的不足,具体目标包括:构建覆盖 IMO 难度的多样化问题集;引入证明生成和评分环节,以评估模型的深度推理能力;开发自动评分器,与人类评分高度一致(Pearson 相关系数达 0.96),从而实现可扩展的评估流程。通过这些机制,IMO-Bench 支持模型向 IMO 金牌性能的迭代开发,并在 2025 年 IMO 中助力 Gemini Deep Think 模型取得金牌。

IMO-Bench 的设计与评估机制

IMO-Bench 采用分层设计,包含三个互补的子基准,每个子基准针对数学推理的不同方面。问题覆盖代数、组合学、几何和数论四大类别,按难度分为 Pre-IMO、IMO-Easy、IMO-Medium 和 IMO-Hard。这些类别和难度分布主要适用于 AnswerBench;ProofBench 和 GradingBench 则跨类别设计,但未提供逐类细分子分布。

AnswerBench

该子基准包含 400 个问题,焦点在于生成可验证的短答案。问题来源于国家、区域和国际奥林匹克竞赛,经手动或 LLM 辅助的鲁棒化处理(如改述、数值更改、添加干扰项),以确保新颖性和防止记忆。几何问题偏向角度或边长计算,以适应短答案格式。问题类型为短答案形式,原证明导向问题被改述为计数或求和任务,避免可猜测的“是/否”答案。

问题按类别均匀分布,每类 100 个。难度分布如下表所示:

类别 Pre-IMO IMO-Easy IMO-Medium IMO-Hard 总计
代数 11 46 32 11 100
组合学 4 19 31 46 100
几何 13 44 32 11 100
数论 2 20 31 47 100
总计 30 129 126 115 400

评估方法为 AnswerAutoGrader,使用 Gemini 2.5 Pro 提取模型输出中的最终答案,并检查与参考答案的语义等价性(如代数或数值等价形式)。该方法与人类评估一致率达 98.9%。无部分分,仅二元正确/错误判断。

ProofBench

该子基准包含 60 个证明导向问题,分为 Basic 子集(30 个,Pre-IMO 至 IMO-Medium 难度,使用改述的现有问题)和 Advanced 子集(30 个,IMO-Hard 难度,包括 18 个专家新创问题、6 个 IMO 2024 鲁棒化问题和 6 个 USAMO 2025 问题)。模型需生成完整证明,即使问题有短答案,也要求展示逻辑论证、严谨步骤和原理应用。问题跨四类,反映 IMO 多样性,如函数方程、不等式、图论或不变量。常见模型错误包括无证明的假设或无推导的猜测。

评估方法结合人类专家和自动评分。人类专家按 0-7 分制评分(7 分:完全正确;6 分:几乎正确;1 分:部分进展,如关键结果;0 分:不正确),基于 IMO 风格的评分指南(详见表 3),验证逻辑有效性、完整性和严谨性。ProofAutoGrader 使用 Gemini 2.5 Pro,输入问题、候选解、参考解和指南,进行自动评估,与人类评分的相关性为 0.96(Basic)和 0.93(Advanced)。自动评分器有局限,如高估部分解或忽略非常规路径,但支持可扩展评估。分数为总可能分的百分比,按问题聚合以平滑噪声。

GradingBench

该子基准包含 1000 个实例,来源于 Advanced ProofBench 的模型解决方案,由人类按 0-7 分评分。任务为四分类:Correct(7 分)、Almost(6-4 分)、Partial(3-1 分)和 Incorrect(0 分)。输入仅为问题和拟解决方案,无参考解或指南,以测试模型的独立评估能力。实例按评分类别平衡,难度从 IMO-Easy 至 IMO-Hard。

评估方法为准确率(分类匹配人类标签)和平均绝对误差(MAE,将分类映射为分数 7/6/1/0,与人类 0-7 比较)。提示设计最小上下文(附录 C.3)。该基准用于训练自动评分模型,但当前模型准确率较低(最高 54.0%),MAE 为 20.2%,凸显长形式评估的难度。

整体流程为:模型接收问题提示,生成输出;AnswerBench 直接匹配答案;ProofBench 和 GradingBench 结合人类和自动评分,确保评估的可靠性和可重复性。

主流大模型在 IMO-Bench 上的表现

在 IMO-Bench 上,主流大模型的性能差异显著,尤其在 Advanced ProofBench 子集上。以下表格摘自官方 leaderboard,展示 15 个系统的 Advanced ProofBench 结果(人类专家评估,总分百分比,按新型、IMO 2024 和 USAMO 2025 问题细分)。测试日期为 2025 年夏季。

模型 Advanced ProofBench 新型问题 IMO 2024 USAMO 2025 测试日期
Gemini Deep Think (IMO Gold) 65.7% 61.1% 76.2% 69.0% 2025-08-02
Gemini Deep Think (IMO lite) 37.6% 31.7% 40.5% 52.4% 2025-08-20
Gemini 2.5 Pro with (Huang & Yang, 2025) 24.8% 17.5% 19.1% 52.4% 2025-07-14
Grok 4 (heavy) 23.3% 11.1% 7.1% 76.2% 2025-07-12
o3 20.5% 15.1% 4.8% 52.4% 2025-08-04
GPT-5 20.0% 15.9% 33.3% 19.0% 2025-09-18
Grok 4 18.6% 17.5% 16.7% 23.8% 2025-08-20
Gemini 2.5 Pro 17.6% 15.9% 7.1% 33.3% 2025-08-04
o4-mini (high reasoning) 11.4% 8.7% 7.1% 23.8% 2025-08-04
Kimi-K2-Instruct 7.1% 4.0% 2.4% 21.4% 2025-08-21
Qwen3-235B 5.2% 7.1% 0.0% 4.8% 2025-08-21
Claude Sonnet 4 4.8% 6.4% 2.4% 2.4% 2025-09-17
DeepSeek V3 4.3% 6.3% 2.4% 0.0% 2025-09-16
DeepSeek R1 3.8% 6.4% 0.0% 0.0% 2025-09-16
Claude Opus 4 2.9% 0.0% 2.4% 11.9% 2025-08-04

分析显示,Gemini Deep Think 在 AnswerBench 上得分 80.0%,领先非 Gemini 模型 6.9 个百分点;在 Advanced ProofBench 上领先 42.4 个百分点。其他模型如 GPT-5 和 Grok 4 在特定子集(如 USAMO)表现出色,但新型问题得分较低,表明潜在的过拟合。Basic ProofBench 上,大多数模型得分低于 60%,凸显高级推理的通用挑战。自动评分器的引入使评估更高效,但人类评分仍为标准。

IMO-Bench 的价值与未来方向

IMO-Bench 通过整合答案验证、证明生成和评分评估,提供了一个全面框架,用于追踪 AI 在数学领域的进步。该基准的开源发布,包括详细的评分指南和数据,允许社区扩展应用,并推动自动评估工具的开发。尽管当前模型在高级任务上仍有差距,但 Gemini Deep Think 的结果证明了基准在指导模型优化方面的作用。未来,IMO-Bench 可扩展至更多领域,推动 AI 向更鲁棒的推理系统演进。

关于IMO-ProofBench的详细评测排行榜参考DataLearnerAI的大模型IMO-ProofBench评测排行榜:https://www.datalearner.com/benchmarks/imo-proof-bench

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码