快速查看大模型在各项评测基准上的表现,包括MMLU Pro、HLE、SWE-Bench等多个标准数据集,帮助开发者和用户了解不同大模型在通用知识、编程能力、推理能力等方面的表现。
用户可以选择自定义模型与评测基准进行对比,快速获取不同模型在实际应用中的优劣势。
各个评测基准的详细介绍可见: LLM 评测基准列表与介绍
数据来源:DataLearnerAI
|
排名
|
模型
|
MMLU Pro
|
GPQA Diamond
|
SWE-bench Verified
|
MATH-500
|
AIME 2024
|
LiveCodeBench
|
|---|---|---|---|---|---|---|---|
| 1 |
|
未公布 | 未公布 | 未公布 | 未公布 | 未公布 | 31.50 |
| 2 |
|
未公布 | 未公布 | 未公布 | 未公布 | 未公布 | 37.90 |
| 3 |
|
未公布 | 未公布 | 72.00 | 未公布 | 未公布 | 未公布 |
| 4 |
|
未公布 | 未公布 | 61.60 | 未公布 | 未公布 | 未公布 |
| 5 |
|
未公布 | 未公布 | 53.60 | 未公布 | 未公布 | 未公布 |
| 6 |
|
未公布 | 未公布 | 46.80 | 未公布 | 未公布 | 未公布 |
| 7 |
|
未公布 | 未公布 | 67.00 | 未公布 | 未公布 | 未公布 |
| 8 |
|
未公布 | 未公布 | 51.60 | 未公布 | 未公布 | 未公布 |
| 9 |
|
未公布 | 未公布 | 70.80 | 未公布 | 未公布 | 未公布 |
| 10 |
|
未公布 | 未公布 | 74.50 | 未公布 | 未公布 | 未公布 |
| 11 |
|
未公布 | 未公布 | 70.40 | 未公布 | 未公布 | 85.50 |
| 12 |
|
未公布 | 未公布 | 76.80 | 未公布 | 未公布 | 未公布 |