加载中...
加载中...
随着大型语言模型(LLM)的飞速发展,如何准确、全面地评估它们的能力成为了一个日益重要的课题。在众多评测基准中,Simple Bench 以其独特的定位脱颖而出,它专注于检验模型在日常人类推理方面的能力,而在这些方面,当前最先进的模型往往还不如普通人。本文将详细介绍 Simple Bench 评测基准,探讨其出现的背景、设计理念、评测流程以及当前主流模型的表现。
一个用于评估大模型常识水平的评测基准
数据来源:DataLearnerAI
数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法
| 排名 | 模型 | |||
|---|---|---|---|---|
| 1 | 76.4 | 2025-11-18 | 未知 | |
| 2 | Gemini 2.5-Prodefault | 62.4 | 2025-06-05 | 未知 |
| 3 | Claude Opus 4.5default | 62 | 2025-11-25 | 未知 |
| 4 | GPT-5-Prodefault | 61.6 | 2025-08-07 | 未知 |
| 5 | Grok 4default | 60.5 | 2025-07-10 | 未知 |
| 6 | Claude Opus 4.1default | 60 | 2025-08-06 | 未知 |
| 7 | Claude Opus 4default | 58.8 | 2025-05-23 | 未知 |
| 8 | GPT-5default | 56.7 | 2025-08-07 | 未知 |
| 9 | Claude Sonnet 4.5default | 54.3 | 2025-09-30 | 未知 |
| 10 | GPT-5.1default | 53.2 | 2025-11-12 | 未知 |
| 11 | OpenAI o3default | 53.1 | 2025-04-16 | 未知 |
| 12 | GLM-4.7default | 47.7 | 2025-12-22 | 3580 |
| 13 | Kimi K2.5default | 46.8 | 2026-01-27 | 10000 |
| 14 | Claude Sonnet 3.7default | 46.4 | 2025-02-25 | 未知 |
| 15 | Claude Sonnet 4default | 45.5 | 2025-05-23 | 未知 |
| 16 | Claude Sonnet 3.7default | 44.9 | 2025-02-25 | 未知 |
| 17 | DeepSeek-R1-0528default | 40.8 | 2025-05-28 | 6710 |
| 18 | OpenAI o1default | 40.1 | 2024-12-05 | 未知 |
| 19 | OpenAI o4 - minidefault | 38.7 | 2025-04-16 | 未知 |
| 20 | GPT-4.5default | 34.5 | 2025-02-28 | 未知 |
| 21 | Qwen3-235B-A22Bdefault | 31 | 2025-04-28 | 2350 |
| 22 | DeepSeek-V3-0324default | 27.2 | 2025-03-24 | 6710 |
| 23 | GPT-4.1default | 27 | 2025-04-14 | 未知 |
| 24 | Kimi K2default | 26.3 | 2025-07-11 | 10000 |
| 25 | OpenAI o3-minidefault | 22.8 | 2025-01-31 | 未知 |
| 26 | GPT OSS 120Bdefault | 22.1 | 2025-08-06 | 117 |
| 27 | DeepSeek-V3default | 18.9 | 2024-12-26 | 6810 |