IMO-Bench:谷歌发布的用于大模型数学推理的鲁棒评估基准
IMO-Bench 是 Google DeepMind 开发的一套基准测试套件,针对国际数学奥林匹克(IMO)水平的数学问题设计,用于评估大型语言模型在数学推理方面的能力。该基准包括三个子基准:AnswerBench、ProofBench 和 GradingBench,涵盖从短答案验证到完整证明生成和评分的全过程。发布于 2025 年 11 月,该基准通过专家审核的问题集,帮助模型实现 IMO 金牌级别的性能,并提供自动评分机制以支持大规模评估。
关于IMO-ProofBench的详细评测排行榜参考DataLearnerAI的大模型IMO-ProofBench评测排行榜:https://www.datalearner.com/benchmarks/imo-proof-bench
AI 数学评测的当前挑战
当前的大模型数学评测基准存在多项局限性。首先,许多基准的问题难度较低,仅涉及基本公式应用,无法反映 IMO 级别的多步推理和创造性要求。其次,现有的评估方法多局限于最终短答案的正确性匹配,忽略了推理过程的严谨性和完整性,导致模型可能通过记忆或模式匹配获得高分,而非真正理解数学结构。此外,缺乏可靠的自动评分工具,使得对长形式证明的评估依赖人工,限制了基准的扩展性和实用性。这些问题阻碍了对模型鲁棒数学推理能力的全面衡量。
