HLE 大模型得分排行榜
数据来源:DataLearnerAI
HLE详细排名数据表格
排名
模型
得分
发布时间
参数(亿)
近年来,大语言模型(LLM)的能力飞速提升,但评测基准的发展却显得滞后。以广泛使用的MMLU(大规模多任务语言理解)为例,GPT-4、Claude等前沿模型已能在其90%以上的问题上取得高分。这种“评测饱和”现象导致研究者难以精准衡量模型在尖端知识领域的真实能力。为此,Safety for AI和Scale AI的研究人员推出了Humanity’s Last Exam大模型评测基准。这是一个全新的评测基准,旨在成为大模型“闭卷学术评测的终极考验”。
不同模式会显著影响成绩,请在对比榜单时留意标签提示。
提示:若某条记录未显示任何标签,即默认是 normal 常规模式。
常规推理:单步推理,不延长思考、也不调用额外工具。
Thinking 系列:常规延长思考时间,low/medium/high 代表不同耗时或深度,各厂商叫法不同。
Deeper thinking:在 Thinking 基础上进一步延长思考链条,通常意味着更多算力与时间。
允许调用检索、浏览器、代码解释器等外部能力。
并行思考:多线程/多代理协同探索再汇总,通常只在厂商内部实验环境中启用、尚未对外开放,因此被视为“作弊”模式。
数据来源:DataLearnerAI