DataLearner logoDataLearnerAI
Latest AI Insights
Model Evaluations
Model Directory
Model Comparison
Resource Center
Tool Directory

加载中...

DataLearner logoDataLearner AI

A knowledge platform focused on LLM benchmarking, datasets, and practical instruction with continuously updated capability maps.

产品

  • Leaderboards
  • 模型对比
  • Datasets

资源

  • Tutorials
  • Editorial
  • Tool directory

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner curates industry data and case studies so researchers, enterprises, and developers can rely on trustworthy intelligence.

隐私政策服务条款
Page navigation
目录
Model catalogGPT-5.1 Codex
GP

GPT-5.1 Codex

OpenAI GPT-5.1 Codex

Release date: 2025-11-14更新于: 2025-11-14 16:35:50630
Live demoGitHubHugging FaceCompare
Parameters
Not disclosed
Context length
400K
Chinese support
Not supported
Reasoning ability

Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology

GPT-5.1 Codex

Model basics

Reasoning traces
Supported
Context length
400K tokens
Max output length
128000 tokens
Model type
编程大模型
Release date
2025-11-14
Model file size
No data
MoE architecture
No
Total params / Active params
0.0B / N/A
Knowledge cutoff
No data
Inference modes
常规模式(Non-Thinking Mode)思考模式(Thinking Mode)
GPT-5.1 Codex

Open source & experience

Code license
不开源
Weights license
不开源- 不开源
GitHub repo
GitHub link unavailable
Hugging Face
Hugging Face link unavailable
Live demo
No live demo
GPT-5.1 Codex

Official resources

Paper
Introducing GPT-5.1 for developers
DataLearnerAI blog
No blog post yet
GPT-5.1 Codex

API details

API speed
3/5
💡Default unit: $/1M tokens. If vendors use other units, follow their published pricing.
Standard pricingStandard
ModalityInputOutput
Text$1.25$10.00
Cached pricingCache
ModalityInput cacheOutput cache
Text$0.13--
GPT-5.1 Codex

Benchmark Results

编程与软件工程

2 evaluations
Benchmark / mode
Score
Rank/total
LiveCodeBenchThinking·High + With tools
85.50
6 / 103
SWE-bench VerifiedThinking·High + With tools
70.40
36 / 87

AI Agent - 工具使用

1 evaluations
Benchmark / mode
Score
Rank/total
Terminal-BenchThinking·High + With tools
56.30
2 / 35
查看评测深度分析与其他模型对比
GPT-5.1 Codex

Publisher

OpenAI
OpenAI
View publisher details
OpenAI GPT-5.1 Codex

Model Overview

简介与定位

GPT-5.1 Codex 是在 GPT-5.1 基础上面向长时段、具备代理能力的编码任务进行优化的专用版本,用于 Codex 或类似环境中的持续对话与自主执行式工程工作流。OpenAI 在开发者说明中将其描述为对长时间会话与工具/代理工作流的优化补充,区别于通用的 GPT-5.1。.

架构与技术规格

官方未披露参数量与训练细节。根据模型参考页,GPT-5.1 Codex 提供 400,000 tokens 的上下文窗口,并支持 128,000 max output tokens 上限。

能力与模态

该模型为文本模态,重点在软件工程相关任务,包括需求到代码的实现、特性开发、调试、重构与代码审查等场景;相较通用模型,其可塑性与对开发者指令的贴合度更高,适合在 IDE/CLI 与 Codex 工具链内长期运行。

性能与评测

官方开发者博客强调 GPT-5.1 在编码与推理等方面的改进,并引入更高效的自适应推理与 24 小时提示缓存等机制,以降低长会话成本并改善长流程任务的稳定性。Codex 变体据此聚焦于工程工作流中的长链路任务。

应用场景与限制

推荐用于大规模代码库的持续开发、跨文件重构、长对话式结对编程与需要较强工具/代理编排的工程任务。非文本多模态输入输出未在该模型页中标注支持。

访问与许可

通过 OpenAI API 可用;未开源。定价采用按 tokens 计费,并支持缓存读价(Cached Input)。

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码