加载中...
加载中...
在人工智能领域,随着大型语言模型(LLMs)在各类任务中的表现不断提升,评估这些模型的实际能力变得尤为重要。尤其是在软件工程领域,AI 模型是否能够准确地解决真实的编程问题,是衡量其真正应用潜力的关键。而在这方面,OpenAI 推出的 *SWE-bench Verified* 基准测试,旨在提供一个更加可靠和精确的评估工具,帮助开发者和研究者全面了解 AI 模型在处理软件工程任务时的能力。
OpenAI基于SWE-Bench提炼的更加准确和更具代表性的大模型代码工程任务解决能力评测
数据来源:DataLearnerAI
数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法
| 排名 | 模型 | |||
|---|---|---|---|---|
| 1 | Claude Opus 4.5thinking | 80.9 | 2025-11-25 | 未知 |
| 2 | Claude Opus 4.6扩展(工具) | 80.84 | 2026-02-05 | 未知 |
| 3 | Gemini 3.1 Pro Preview思考模式 High(工具) | 80.6 | 2026-02-20 | 未知 |
| 4 | MiniMax M2.5thinking + 使用工具 | 80.2 | 2026-02-12 | 2290 |
| 5 | GPT-5.2极高强度思考(工具) | 80 | 2025-12-11 | 未知 |
| 6 | Claude Sonnet 4.6thinking | 79.6 | 2026-02-17 | 未知 |
| 7 | GLM-5thinking | 77.8 | 2026-02-11 | 7440 |
| 8 | Claude Sonnet 4.5thinking + 使用工具 | 77.2 | 2025-09-30 | 未知 |
| 9 | GPT-5.1-Codex-Maxhigh + 使用工具 | 76.8 | 2025-11-19 | 未知 |
| 10 | Kimi K2.5thinking | 76.8 | 2026-01-27 | 10000 |
| 11 | Qwen3.5-397B-A17Bthinking | 76.4 | 2026-02-16 | 397 |
| 12 | Qwen3.5-397B-A17B思考模式(工具) | 76.4 | 2026-02-16 | 397 |
| 13 | GPT-5.1high | 76.3 | 2025-11-12 | 未知 |
| 14 | GPT-5.1思考模式 High(工具) | 76.3 | 2025-11-12 | 未知 |
| 15 | Gemini 3.0 Pro (Preview 11-2025)thinking | 76.2 | 2025-11-18 | 未知 |
| 16 | Qwen3-Max-Thinkingthinking | 75.3 | 2026-01-26 | 10000 |
| 17 | o3-prohigh | 75 | 2025-06-10 | 未知 |
| 18 | M2.1thinking | 74.8 | 2025-12-23 | 2300 |
| 19 | Claude Opus 4.1thinking | 74.5 | 2025-08-06 | 未知 |
| 20 | Claude Opus 4.1thinking + 使用工具 | 74.5 | 2025-08-06 | 未知 |
| 21 | GPT-5 Codexhigh | 74.5 | 2025-09-15 | 未知 |
| 22 | Step 3.5 Flashthinking | 74.4 | 2026-02-02 | 1960 |
| 23 | GLM-4.7thinking + 使用工具 | 73.8 | 2025-12-22 | 3580 |
| 24 | Haiku 4.5思考模式(工具,128K预算) | 73.3 | 2025-10-15 | 未知 |
| 25 | DeepSeek V3.2thinking + 使用工具 | 73.1 | 2025-12-01 | 6710 |