GPT-5 Codex
GPT-5 Codex is an AI model published by OpenAI, released on 2025-09-15, for 编程大模型, with 0.0B parameters, and 400K tokens context length, under the 不开源 license.
Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology
| Modality | Input | Output |
|---|---|---|
| Text | $1.25 | $10 |
| Image | $1.25 | -- |
| Modality | Input cache | Output cache |
|---|---|---|
| Text | $0.125 | -- |
| Image | $0.125 | -- |
GPT-5 Codex currently shows benchmark results led by LiveBench (5 / 51, score 78.24), SWE-bench Verified (25 / 95, score 74.50). This page also consolidates core specs, context limits, and API pricing so you can evaluate the model from benchmark results and deployment constraints together.
OpenAI 的 GPT-5-Codex 是 GPT-5 系列的一个专用变体,专为代理式编码(agentic coding)任务优化设计。它不是一个通用的聊天模型,而是针对软件工程工作流(如代码生成、重构、调试和测试)进行了微调,旨在帮助开发者更快地委托复杂任务。该模型于 2025 年 9 月 15 日正式发布,作为 OpenAI Codex 工具系列的核心组件。Codex 本身是 OpenAI 的一系列 AI 编码工具,支持云端和本地代理,帮助开发者处理从简单代码片段到大型项目重构的任务。
使用 SWE-bench Verified 基准(软件工程基准,覆盖 500 个任务)评估:
模型变体SWE-bench Verified 分数简单任务令牌节省复杂任务令牌增加上下文窗口
GPT-5 (High)72.8%--400K
GPT-5-Codex74.5%93%102%400K
GPT-5-Codex-Mini71.3%类似 Codex类似 Codex400K
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
