MMLU Pro 大模型得分排行榜
数据来源:DataLearnerAI
MMLU Pro详细排名数据表格
排名
模型
得分
发布时间
参数(亿)
大模型已经对很多行业产生了巨大的影响,如何准确评测大模型的能力和效果,已经成为业界亟待解决的关键问题。生成式AI模型,如大型语言模型(LLMs),能够生成高质量的文本、代码、图像等内容,但其评测却相对很困难。而此前很多较早的评测也很难区分当前最优模型的能力。 以MMLU评测为例,2023年3月份,GPT-4在MMLU获得了86.4分之后,将近2年后的2024年年底,业界最好的大模型在MMLU上得分也就90.5,提升十分有限。 为此,滑铁卢大学、多伦多大学和卡耐基梅隆大学的研究人员一起提出了MMLU P
不同模式会显著影响成绩,请在对比榜单时留意标签提示。
提示:若某条记录未显示任何标签,即默认是 normal 常规模式。
常规推理:单步推理,不延长思考、也不调用额外工具。
Thinking 系列:常规延长思考时间,low/medium/high 代表不同耗时或深度,各厂商叫法不同。
Deeper thinking:在 Thinking 基础上进一步延长思考链条,通常意味着更多算力与时间。
允许调用检索、浏览器、代码解释器等外部能力。
并行思考:多线程/多代理协同探索再汇总,通常只在厂商内部实验环境中启用、尚未对外开放,因此被视为“作弊”模式。
数据来源:DataLearnerAI