OpenAI GPT-5.1 Codex
支持
400K tokens
128000 tokens
编程大模型
2025-11-14
默认单位:$/100万 tokens;若计费单位不同,则以供应商公开的原始标注为准。
| 模态 | 输入 | 输出 |
|---|---|---|
| 文本 | $1.25 / 1M tokens | $10.00 / 1M tokens |
| 模态 | 输入 Cache | 输出 Cache |
|---|---|---|
| 文本 | $0.13 / 1M tokens |
GPT-5.1 Codex 是在 GPT-5.1 基础上面向长时段、具备代理能力的编码任务进行优化的专用版本,用于 Codex 或类似环境中的持续对话与自主执行式工程工作流。OpenAI 在开发者说明中将其描述为对长时间会话与工具/代理工作流的优化补充,区别于通用的 GPT-5.1。.
官方未披露参数量与训练细节。根据模型参考页,GPT-5.1 Codex 提供 400,000 tokens 的上下文窗口,并支持 128,000 max output tokens 上限。
该模型为文本模态,重点在软件工程相关任务,包括需求到代码的实现、特性开发、调试、重构与代码审查等场景;相较通用模型,其可塑性与对开发者指令的贴合度更高,适合在 IDE/CLI 与 Codex 工具链内长期运行。
官方开发者博客强调 GPT-5.1 在编码与推理等方面的改进,并引入更高效的自适应推理与 24 小时提示缓存等机制,以降低长会话成本并改善长流程任务的稳定性。Codex 变体据此聚焦于工程工作流中的长链路任务。
推荐用于大规模代码库的持续开发、跨文件重构、长对话式结对编程与需要较强工具/代理编排的工程任务。非文本多模态输入输出未在该模型页中标注支持。
通过 OpenAI API 可用;未开源。定价采用按 tokens 计费,并支持缓存读价(Cached Input)。
关注DataLearnerAI微信公众号,接受最新大模型资讯