SWE-bench Verified
在人工智能领域,随着大型语言模型(LLMs)在各类任务中的表现不断提升,评估这些模型的实际能力变得尤为重要。尤其是在软件工程领域,AI 模型是否能够准确地解决真实的编程问题,是衡量其真正应用潜力的关键。而在这方面,OpenAI 推出的 *SWE-bench Verified* 基准测试,旨在提供一个更加可靠和精确的评估工具,帮助开发者和研究者全面了解 AI 模型在处理软件工程任务时的能力。
更新于 2026-04-16
11,282 次浏览
问题数量
500
发布机构
OpenAI
评测类别
编程与软件工程
评测指标
Accuracy
支持语言
英文
难度等级
高难度
简介
OpenAI基于SWE-Bench提炼的更加准确和更具代表性的大模型代码工程任务解决能力评测
相关资源
SWE-bench Verified 大模型得分排行榜
数据来源:DataLearnerAI
数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法
模式说明:
normal
thinking
low
medium
high
deeper thinking
parallel_thinking
图表加载中...
SWE-bench Verified评测最新大模型排名与完整榜单数据
查看 SWE-bench Verified 的最新得分、模型模式、发布时间与参数规模,快速了解当前完整榜单表现。
模型发布时间截止:
SWE-bench Verified详细排名数据表格
| 排名 | 模型 | |||
|---|---|---|---|---|
| 1 | Claude Mythos Preview 扩展思考工具 | 93.90 | 2026-04-07 | 未知 |
| 2 | Claude Opus 4.7 扩展思考工具 | 87.60 | 2026-04-16 | 未知 |
| 3 | 80.90 | 2025-11-25 | 未知 | |
| 4 | Claude Opus 4.6 扩展思考工具 | 80.84 | 2026-02-05 | 未知 |
| 5 | Gemini 3.1 Pro Preview 思考水平 · 高工具 | 80.60 | 2026-02-20 | 未知 |
| 6 | MiniMax M2.5 思考工具 | 80.20 | 2026-02-12 | 2290 |
| 7 | GPT-5.2 思考水平 · 超高工具 | 80.00 | 2025-12-11 | 未知 |
| 8 | 79.60 | 2026-02-17 | 未知 | |
| 9 | 78.80 | 2026-03-31 | 未知 | |
| 10 | GLM-5 思考 | 77.80 | 2026-02-11 | 7440 |
| 11 | Muse Spark 思考工具 | 77.40 | 2026-04-08 | 未知 |
| 12 | 77.20 | 2025-09-30 | 未知 | |
| 13 | GPT-5.1-Codex-Max 思考水平 · 高工具 | 76.80 | 2025-11-19 | 未知 |
| 14 | Kimi K2.5 思考工具 | 76.80 | 2026-01-27 | 10000 |
| 15 | 76.40 | 2026-02-16 | 397 | |
| 16 | GPT-5.1 思考水平 · 高 | 76.30 | 2025-11-12 | 未知 |
| 17 | GPT-5.1 思考水平 · 高工具 | 76.30 | 2025-11-12 | 未知 |
| 18 | 76.20 | 2025-11-18 | 未知 | |
| 19 | 75.30 | 2026-01-26 | 10000 | |
| 20 | o3-pro 思考水平 · 高 | 75.00 | 2025-06-10 | 未知 |
| 21 | M2.1 思考 | 74.80 | 2025-12-23 | 2300 |
| 22 | 74.50 | 2025-08-06 | 未知 | |
| 23 | GPT-5 Codex 思考水平 · 高 | 74.50 | 2025-09-15 | 未知 |
| 24 | 74.40 | 2026-02-02 | 1960 | |
| 25 | GLM-4.7 思考工具 | 73.80 | 2025-12-22 | 3580 |
滚动或悬停加载剩余 66 条