DataLearner logoDataLearnerAI
Latest AI Insights
Model Evaluations
Model Directory
Model Comparison
Resource Center
Tool Directory

加载中...

DataLearner logoDataLearner AI

A knowledge platform focused on LLM benchmarking, datasets, and practical instruction with continuously updated capability maps.

产品

  • Leaderboards
  • 模型对比
  • Datasets

资源

  • Tutorials
  • Editorial
  • Tool directory

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner curates industry data and case studies so researchers, enterprises, and developers can rely on trustworthy intelligence.

隐私政策服务条款
Page navigation
目录
Model catalogGPT-5-Codex-Mini
GP

GPT-5-Codex-Mini

OpenAI GPT-5-Codex-Mini

Release date: 2025-11-07232
Live demoGitHubHugging FaceCompare
Parameters
Not disclosed
Context length
No data
Chinese support
Not supported
Reasoning ability

Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology

GPT-5-Codex-Mini

Model basics

Reasoning traces
Supported
Thinking modes
Thinking modes not supported
Context length
No data
Max output length
No data
Model type
No data
Release date
2025-11-07
Model file size
No data
MoE architecture
No
Total params / Active params
0.0B / N/A
Knowledge cutoff
No data
GPT-5-Codex-Mini

Open source & experience

Code license
不开源
Weights license
不开源- 不开源
GitHub repo
https://github.com/openai/codex
Hugging Face
Hugging Face link unavailable
Live demo
No live demo
GPT-5-Codex-Mini

Official resources

Paper
Introducing upgrades to Codex
DataLearnerAI blog
No blog post yet
GPT-5-Codex-Mini

API details

API speed
3/5
No public API pricing yet.
GPT-5-Codex-Mini

Benchmark Results

No benchmark data to show.
GPT-5-Codex-Mini

Publisher

OpenAI
OpenAI
View publisher details
OpenAI GPT-5-Codex-Mini

Model Overview

1. GPT-5-Codex-Mini 的简介与定位

GPT-5-Codex-Mini 是 OpenAI 在 2025 年 11 月 7 日通过 Codex 文档与更新日志正式公布的模型选项,作为 GPT-5-Codex 的精简版本,主要面向使用 Codex CLI 和 IDE 扩展进行日常编码与代理式开发工作的开发者。根据官方 Codex changelog 和 CLI 特性说明,该模型被描述为比 GPT-5-Codex 更小、更具成本效率,但能力略低,换取的是显著提升的可用使用量:在 ChatGPT 订阅额度下,大约可以获得约 4 倍的 Codex 使用空间,用于更长时间的本地会话与持续性开发任务。

目前,GPT-5-Codex-Mini 仅作为 Codex 产品体系中的一种模型选项提供,主要通过登录 ChatGPT 账号后使用 Codex CLI 或 Codex IDE 扩展访问,而不是作为独立的通用 API 模型公开发布。这也意味着,它与 GPT-5-Codex 一样被定位为面向“代理式编码 (agentic coding)” 场景的专用模型,而非通用对话模型。

2. 与 GPT-5-Codex 相关的架构与技术特征

OpenAI 在《Introducing upgrades to Codex》官方博客和 GPT-5-Codex 系统卡附录中,对 GPT-5-Codex 的整体设计目标和技术特点有较为完整的描述:GPT-5-Codex 是在 GPT-5 基础上进一步针对真实世界软件工程任务进行优化的版本,重点场景包括从零构建项目、增量开发与加测、复杂调试、大规模重构以及代码审查等。GPT-5 系列在 API 中支持高达数十万 tokens 级别的上下文和大规模输出,以适应整库级别的代码理解与修改需求,但目前 OpenAI 尚未单独公布 GPT-5-Codex-Mini 的参数规模、上下文窗口或输出上限等具体数值。

从官方资料可以看出,GPT-5-Codex 在推理与规划上采用了“按任务难度自适应思考时长”的策略:在简单请求上减少推理 token 使用,使交互更加迅捷;在复杂任务(如长时间重构或大型代码库迁移)上则允许模型长时间独立运行,迭代实现方案并根据测试结果持续修正。内部评估显示,在 OpenAI 员工的真实使用流量中,GPT-5-Codex 在最简单的约 10% 用户轮次上,相比 GPT-5 能显著减少生成 token,而在最复杂的约 10% 任务上则会花费更多时间进行推理和编辑,以提高最终代码质量与稳定性。当前公开资料尚未对 GPT-5-Codex-Mini 是否在这些方面做出参数层面的额外改动给出细节,仅明确其在能力略降的前提下显著提升了可用使用量。

3. 核心能力与支持模态

在能力方面,GPT-5-Codex-Mini 继承了 Codex 产品线的核心特征:深度理解代码库并以“代理”方式执行多步任务。根据 Codex CLI 特性文档,开发者可以在交互式终端中向 Codex 提交自然语言指令、代码片段以及屏幕截图或界面设计图,模型会先给出规划,再在得到用户批准后自动浏览文件、编辑代码、运行命令和测试。GPT-5-Codex-Mini 作为推荐模型之一,可以像 GPT-5-Codex 一样参与这些工作流,用于:

(1)交互式结对编程:在本地仓库中阅读当前目录与相关文件,根据自然语言需求生成或修改代码,并解释修改的设计理由;

(2)长程自动化任务:在 Codex Cloud 或本地自动化模式下,根据高层目标拆解任务、生成执行计划、反复运行测试并根据失败结果迭代,直到完成大型重构或特性开发;

(3)代码审查与缺陷发现:在 Git 仓库中阅读 diff 或最近提交,结合意图说明审查改动是否与需求一致,并尽可能发现潜在风险和关键缺陷,给出可操作的修改建议。

从模态角度看,Codex 产品允许在终端或 IDE 中向会话附加图像(如 UI 截图、设计稿或错误提示截图),模型能够同时理解文本和图像内容,但输出仍以文本代码和解释为主。因此,可以认为 GPT-5-Codex-Mini 主要是“文本+图像输入、文本输出”的代码代理模型,不承担图像生成、音频生成或视频生成等任务。

4. 性能与评测概况

OpenAI 在 GPT-5-Codex 相关的官方博客与系统卡附录中,展示了其在 SWE-bench Verified 等编码基准上的表现:在包含 500 个真实开源项目任务的 SWE-bench Verified 上,GPT-5-Codex(高推理配置)相对于 GPT-5(高推理配置)在整体通过率上有明显提升,并在大规模代码重构与跨语言任务上显示出更好的稳定性和成功率。此外,官方还给出了内部评估结果,表明 GPT-5-Codex 在代码审查场景中生成的评论更少出现“无关或不正确”的情况,更集中于开发者真正需要关注的关键问题。

需要强调的是,截至目前,OpenAI 尚未单独发布 GPT-5-Codex-Mini 的公开基准数据或与 GPT-5-Codex 的详细对比曲线,公开信息仅明确它在能力略有折衷的前提下换取了更高的可用使用量。因此,在评估 GPT-5-Codex-Mini 的实际效果时,更合适的做法是将其视为基于 GPT-5-Codex 同一技术栈、偏向“高性价比与长时程使用”的变体,而具体任务表现依赖于实际使用反馈与后续评测。

5. 典型应用场景与适用边界

结合 OpenAI 的官方使用建议和 Codex 产品定位,GPT-5-Codex-Mini 特别适合以下情形:第一,在 ChatGPT Plus、Business、Edu 等订阅计划下,希望在一段时间内进行更长时长的本地编码会话或多轮迭代开发,避免因达到使用上限而频繁中断;第二,需要连续多次运行中等难度的修复、重构或特性开发任务,对模型能力要求高于传统补全工具但又不需要始终使用最高能力模型;第三,在教育或团队培训场景中,为更多开发者提供稳定的编码助手体验,同时控制整体算力消耗。

同时,官方资料也隐含给出了该模型的适用边界:对于需要极致推理能力、严苛可靠性或最高通过率的任务(例如最复杂的企业级重构、关乎安全合规的关键模块审查等),OpenAI 通常仍推荐优先使用完整的 GPT-5-Codex 高推理配置,而 GPT-5-Codex-Mini 更适合作为提高使用频次与降低边际成本的补充选项。

6. 访问方式与许可信息

目前,GPT-5-Codex-Mini 通过以下方式对外提供:其一,在 Codex CLI 中,通过登录 ChatGPT 账号后在配置文件或启动参数中选择 gpt-5-codex-mini 作为默认或当前模型;其二,在 Codex IDE 扩展中,通过下拉菜单选择 GPT-5-Codex-Mini,以便在 VS Code 及相关分支中直接使用。同一账号下的使用会与 ChatGPT 订阅额度共享,并按照官方帮助文档中的说明,在本地任务数量与持续时长方面显著放宽限制。现阶段,OpenAI 尚未宣布将 GPT-5-Codex-Mini 作为独立模型开放至通用 Responses API 或第三方托管平台,因此也没有单独公开的按 token 计费策略。

在许可方面,GPT-5-Codex-Mini 与 GPT-5-Codex 属于 OpenAI 托管的闭源商用模型,代码与模型权重均未开源,开发者通过 ChatGPT 订阅、Codex CLI、IDE 扩展或后续可能开放的 API 通道访问模型能力,并受制于 OpenAI 的服务条款、使用政策与安全约束。

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码