加载中...
加载中...
OpenAI GPT-5.1 Codex
Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology
| Modality | Input | Output |
|---|---|---|
| Text | $1.25 | $10.00 |
| Modality | Input cache | Output cache |
|---|---|---|
| Text | $0.13 | -- |
GPT-5.1 Codex 是在 GPT-5.1 基础上面向长时段、具备代理能力的编码任务进行优化的专用版本,用于 Codex 或类似环境中的持续对话与自主执行式工程工作流。OpenAI 在开发者说明中将其描述为对长时间会话与工具/代理工作流的优化补充,区别于通用的 GPT-5.1。.
官方未披露参数量与训练细节。根据模型参考页,GPT-5.1 Codex 提供 400,000 tokens 的上下文窗口,并支持 128,000 max output tokens 上限。
该模型为文本模态,重点在软件工程相关任务,包括需求到代码的实现、特性开发、调试、重构与代码审查等场景;相较通用模型,其可塑性与对开发者指令的贴合度更高,适合在 IDE/CLI 与 Codex 工具链内长期运行。
官方开发者博客强调 GPT-5.1 在编码与推理等方面的改进,并引入更高效的自适应推理与 24 小时提示缓存等机制,以降低长会话成本并改善长流程任务的稳定性。Codex 变体据此聚焦于工程工作流中的长链路任务。
推荐用于大规模代码库的持续开发、跨文件重构、长对话式结对编程与需要较强工具/代理编排的工程任务。非文本多模态输入输出未在该模型页中标注支持。
通过 OpenAI API 可用;未开源。定价采用按 tokens 计费,并支持缓存读价(Cached Input)。
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
