GP

GPT-5.1 Codex

编程大模型

OpenAI GPT-5.1 Codex

发布时间: 2025-11-14

171
模型参数(Parameters)
未披露
最高上下文长度(Context Length)
400K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

支持

最高上下文输入长度

400K tokens

最长输出结果

128000 tokens

模型类型

编程大模型

发布时间

2025-11-14

模型预文件大小
暂无数据
推理模式
常规模式(Non-Thinking Mode) 思考模式(Thinking Mode)

开源和体验地址

代码开源状态
不开源
预训练权重开源
不开源 - 不开源
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度(满分5分)
接口价格

默认单位:$/100万 tokens;若计费单位不同,则以供应商公开的原始标注为准。

标准计费 Standard
模态 输入 输出
文本 $1.25 / 1M tokens $10.00 / 1M tokens
缓存计费 Cache
模态 输入 Cache 输出 Cache
文本 $0.13 / 1M tokens --

GPT-5.1 Codex模型在各大评测榜单的评分

编程与软件工程

共 2 项评测
LiveCodeBench high + 使用工具
85.50
2 / 94
SWE-bench Verified high + 使用工具
70.40
20 / 66

Agent能力评测

共 1 项评测
Terminal-Bench high + 使用工具
56.30
2 / 36

发布机构

OpenAI GPT-5.1 Codex模型解读

简介与定位

GPT-5.1 Codex 是在 GPT-5.1 基础上面向长时段、具备代理能力的编码任务进行优化的专用版本,用于 Codex 或类似环境中的持续对话与自主执行式工程工作流。OpenAI 在开发者说明中将其描述为对长时间会话与工具/代理工作流的优化补充,区别于通用的 GPT-5.1。.

架构与技术规格

官方未披露参数量与训练细节。根据模型参考页,GPT-5.1 Codex 提供 400,000 tokens 的上下文窗口,并支持 128,000 max output tokens 上限。

能力与模态

该模型为文本模态,重点在软件工程相关任务,包括需求到代码的实现、特性开发、调试、重构与代码审查等场景;相较通用模型,其可塑性与对开发者指令的贴合度更高,适合在 IDE/CLI 与 Codex 工具链内长期运行。

性能与评测

官方开发者博客强调 GPT-5.1 在编码与推理等方面的改进,并引入更高效的自适应推理与 24 小时提示缓存等机制,以降低长会话成本并改善长流程任务的稳定性。Codex 变体据此聚焦于工程工作流中的长链路任务。

应用场景与限制

推荐用于大规模代码库的持续开发、跨文件重构、长对话式结对编程与需要较强工具/代理编排的工程任务。非文本多模态输入输出未在该模型页中标注支持。

访问与许可

通过 OpenAI API 可用;未开源。定价采用按 tokens 计费,并支持缓存读价(Cached Input)。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat