GPT-5.1 Codex
OpenAI GPT-5.1 Codex
模型参数
未披露
上下文长度
400K
中文支持
不支持
推理能力
模型基本信息
推理过程
支持
上下文长度
400K tokens
最大输出长度
128000 tokens
模型类型
暂无数据
发布时间
2025-11-14
模型文件大小
暂无数据
MoE架构
否
总参数 / 激活参数
0.0 亿 / 不涉及
知识截止
暂无数据
推理模式
常规模式(Non-Thinking Mode)思考模式(Thinking Mode)
开源和体验地址
代码开源状态
不开源
预训练权重开源
不开源- 不开源
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址
官方介绍与博客
DataLearnerAI博客
暂无介绍博客
API接口信息
接口速度
3/5
默认单位:$/100万 tokens。若计费单位不同,则以供应商公开的原始标注为准。
标准计费Standard
| 模态 | 输入 | 输出 |
|---|---|---|
| 文本 | $1.25 | $10.00 |
缓存计费Cache
| 模态 | 输入 Cache | 输出 Cache |
|---|---|---|
| 文本 | $0.13 | -- |
评测得分
编程与软件工程
共 2 项评测评测名称 / 模式
得分
排名/总数
发布机构
OpenAI
查看发布机构详情 模型解读
简介与定位
GPT-5.1 Codex 是在 GPT-5.1 基础上面向长时段、具备代理能力的编码任务进行优化的专用版本,用于 Codex 或类似环境中的持续对话与自主执行式工程工作流。OpenAI 在开发者说明中将其描述为对长时间会话与工具/代理工作流的优化补充,区别于通用的 GPT-5.1。.
架构与技术规格
官方未披露参数量与训练细节。根据模型参考页,GPT-5.1 Codex 提供 400,000 tokens 的上下文窗口,并支持 128,000 max output tokens 上限。
能力与模态
该模型为文本模态,重点在软件工程相关任务,包括需求到代码的实现、特性开发、调试、重构与代码审查等场景;相较通用模型,其可塑性与对开发者指令的贴合度更高,适合在 IDE/CLI 与 Codex 工具链内长期运行。
性能与评测
官方开发者博客强调 GPT-5.1 在编码与推理等方面的改进,并引入更高效的自适应推理与 24 小时提示缓存等机制,以降低长会话成本并改善长流程任务的稳定性。Codex 变体据此聚焦于工程工作流中的长链路任务。
应用场景与限制
推荐用于大规模代码库的持续开发、跨文件重构、长对话式结对编程与需要较强工具/代理编排的工程任务。非文本多模态输入输出未在该模型页中标注支持。
访问与许可
通过 OpenAI API 可用;未开源。定价采用按 tokens 计费,并支持缓存读价(Cached Input)。
DataLearner 官方微信
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
