CodeForces
随着大型语言模型(LLM)能力的飞速发展,如何科学、准确地评估其性能,特别是深度的逻辑推理和代码生成能力,已成为人工智能领域的一大挑战。传统的评测基准在面对日益强大的模型时,逐渐暴露出数据污染、难度不足、无法有效评估真实推理能力等问题。在这一背景下,一个旨在检验模型竞赛级编程水平的评测基准——Codeforces应运而生,为我们提供了一个更严苛、更接近人类程序员真实水平的竞技场。
更新于 2026-04-22
1,569 次浏览
问题数量
387
发布机构
个人
评测类别
编程与软件工程
评测指标
Accuracy
支持语言
英文
难度等级
高难度
简介
一个使用编程竞赛题目测试大模型代码生成能力的评测基准
相关资源
CodeForces 大模型得分排行榜
数据来源:DataLearnerAI
数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法
模式说明:
normal
thinking
low
medium
high
deeper thinking
parallel_thinking
图表加载中...
CodeForces评测最新大模型排名与完整榜单数据
查看 CodeForces 的最新得分、模型模式、发布时间与参数规模,快速了解当前完整榜单表现。
模型发布时间截止:
CodeForces详细排名数据表格
| 排名 | 模型 | |||
|---|---|---|---|---|
| 1 | 3455.00 | 2026-02-13 | 未知 | |
| 2 | OpenAI o4 - mini 开启思考工具 | 2719.00 | 2025-04-16 | 未知 |
| 3 | 2701.00 | 2025-12-01 | 未知 | |
| 4 | GPT OSS 120B 开启思考工具 | 2622.00 | 2025-08-06 | 117 |
| 5 | GPT OSS 20B 开启思考工具 | 2516.00 | 2025-08-06 | 210 |
| 6 | GPT OSS 120B 开启思考 | 2463.00 | 2025-08-06 | 117 |
| 7 | DeepSeek V3.2 开启思考 | 2386.00 | 2025-12-01 | 6710 |
| 8 | GPT OSS 20B 开启思考 | 2230.00 | 2025-08-06 | 210 |
| 9 | OpenAI o3-mini 开启思考 | 2073.00 | 2025-01-31 | 未知 |
| 10 | Qwen3-32B 开启思考 | 1977.00 | 2025-04-28 | 320 |
| 11 | Qwen3.5-27B 开启思考 | 1899.00 | 2026-02-25 | 270 |
| 12 | Qwen3-32B 常规模式 | 1353.00 | 2025-04-28 | 320 |