DataLearner logoDataLearnerAI
Latest AI Insights
Model Evaluations
Model Directory
Model Comparison
Resource Center
Tools
LanguageEnglish

加载中...

DataLearner logoDataLearner AI

A knowledge platform focused on LLM benchmarking, datasets, and practical instruction with continuously updated capability maps.

Products

  • Leaderboards
  • Model comparison
  • Datasets

Resources

  • Tutorials
  • Editorial
  • Tool directory

Company

  • About
  • Privacy policy
  • Data methodology
  • Contact

© 2026 DataLearner AI. DataLearner curates industry data and case studies so researchers, enterprises, and developers can rely on trustworthy intelligence.

Privacy policyTerms of service
Page navigation
目录
Model catalogGPT-5.3 Codex
GP

GPT-5.3 Codex

GPT-5.3 Codex

Release date: 2026-02-05更新于: 2026-03-08 21:06:201,282
Live demoGitHubHugging FaceCompare
Parameters
Not disclosed
Context length
400K
Chinese support
Supported
Reasoning ability

Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology

GPT-5.3 Codex

Model basics

Reasoning traces
Supported
Thinking modes
Thinking Level · Medium (Default)Thinking Level · LowThinking Level · HighThinking Level · Extra-High
Context length
400K tokens
Max output length
128000 tokens
Model type
编程大模型
Release date
2026-02-05
Model file size
No data
MoE architecture
No
Total params / Active params
0.0B / N/A
Knowledge cutoff
No data
GPT-5.3 Codex

Open source & experience

Code license
不开源
Weights license
不开源- 不开源
GitHub repo
GitHub link unavailable
Hugging Face
Hugging Face link unavailable
Live demo
https://chatgpt.com
GPT-5.3 Codex

Official resources

Paper
Introducing GPT-5.3-Codex
DataLearnerAI blog
No blog post yet
GPT-5.3 Codex

API details

API speed
4/5
💡Default unit: $/1M tokens. If vendors use other units, follow their published pricing.
Standard pricingStandard
ModalityInputOutput
Text$1.75$14
Cached pricingCache
ModalityInput cacheOutput cache
Text$0.175--
GPT-5.3 Codex

Benchmark Results

GPT-5.3 Codex currently shows benchmark results led by Terminal Bench 2.0 (1 / 27, score 77.30), SWE-Bench Pro - Public (2 / 19, score 56.80), IC SWE-Lancer(Diamond) (1 / 8, score 81.40). This page also consolidates core specs, context limits, and API pricing so you can evaluate the model from benchmark results and deployment constraints together.

Thinking
All modesThinking
Thinking mode details (2)
All thinking modesDefault (Medium)Extra-High
Tool usage
All modesWith toolsNo tools

AI Agent - 工具使用

1 evaluations
Benchmark / mode
Score
Rank/total
Terminal Bench 2.0
Extra-HighTools
77.30
1 / 27
View benchmark analysisCompare with other models
GPT-5.3 Codex

Publisher

OpenAI
OpenAI
View publisher details
GPT-5.3 Codex

Model Overview

2026年2月5日,OpenAI发布了GPT-5.3-Codex,这是其最新的代理式编程模型。该模型不仅在多项行业基准测试中取得领先成绩,更值得关注的是,它成为OpenAI首个在自身开发过程中发挥实质性作用的模型。

核心技术参数

GPT-5.3-Codex整合了GPT-5.2-Codex的前沿编程能力与GPT-5.2的推理和专业知识能力,并实现了25%的速度提升。模型具备以下技术特性:

  • 上下文窗口: 400,000 tokens
  • 输出限制: 128,000 tokens
  • 推理模式: 支持xhigh reasoning effort配置
  • 硬件基础: 在NVIDIA GB200 NVL72系统上训练和部署

基准测试表现

SWE-Bench Pro (Public)

  • GPT-5.3-Codex: 56.8%
  • GPT-5.2-Codex: 56.4%
  • GPT-5.2: 55.6%

SWE-Bench Pro是针对真实软件工程场景的严格评估,覆盖四种编程语言,具有更强的抗污染性和行业相关性。GPT-5.3-Codex在实现最高准确率的同时,使用的token数量少于所有前代模型。

Terminal-Bench 2.0

  • GPT-5.3-Codex: 77.3%
  • GPT-5.2-Codex: 64.0%
  • GPT-5.2: 62.2%
  • Claude Opus 4.6: 65.4%

该基准测试衡量编程代理所需的终端技能。GPT-5.3-Codex在这一指标上取得了13个百分点的单代跨越,显著领先于同期发布的竞品。

OSWorld-Verified

  • GPT-5.3-Codex: 64.7%
  • GPT-5.2-Codex: 38.2%
  • GPT-5.2: 37.9%
  • 人类基准: ~72%

OSWorld评估代理在视觉桌面环境中完成生产力任务的能力。GPT-5.3-Codex的表现几乎是前代模型的两倍,接近人类水平。

GDPval

  • 70.9% 胜率或平局

GDPval是OpenAI于2025年发布的评估体系,衡量模型在44种职业中执行明确知识工作任务的能力,包括制作演示文稿、电子表格等工作产品。

网络安全CTF挑战

  • 77.6% 准确率

这是OpenAI首个被归类为网络安全领域"高能力"的模型,也是首个直接训练用于识别软件漏洞的模型。

自我迭代开发

GPT-5.3-Codex的一个突破性特征是它在自身创建过程中发挥的作用:

研究团队应用场景:

  • 监控和调试训练运行
  • 跟踪训练过程中的模式
  • 分析交互质量并提出修复方案

工程团队应用场景:

  • 优化模型的harness配置
  • 识别上下文渲染bug
  • 定位低缓存命中率的根本原因
  • 动态扩展GPU集群以应对流量高峰

数据团队应用场景:

  • 创建新的数据管道和可视化工具
  • 在三分钟内对数千个数据点进行关键洞察总结

CEO Sam Altman在发布后表示:"看到我们通过使用5.3-Codex本身来加速5.3-Codex的发布速度,这真是令人惊叹,这无疑是未来趋势的标志。"

实际应用能力

除了基准测试,OpenAI通过让GPT-5.3-Codex自主构建复杂游戏来验证其长周期开发能力:

  1. 赛车游戏: 包含不同角色、8张地图和道具系统
  2. 潜水游戏: 具有多个珊瑚礁、鱼类收集机制,以及氧气和压力等资源管理系统

这些演示涉及数百万tokens的迭代,证明模型能够在跨越多天的项目中维持上下文并持续推进。

在日常网站开发方面,当收到简单或不完整的提示时,GPT-5.3-Codex现在能够默认生成更具功能性的设计。例如,在创建落地页时,它会自动:

  • 将年度计划显示为折扣后的月度价格
  • 创建包含三段不同用户评价的自动轮播
  • 提供更完整、更接近生产就绪的默认布局

扩展的工作范围

GPT-5.3-Codex的定位已从纯编程代理扩展为能够执行开发者和专业人员在计算机上几乎所有工作的通用代理,包括:

  • 编写产品需求文档(PRD)
  • 文案编辑
  • 用户研究
  • 构建演示文稿
  • 电子表格数据分析
  • 部署和监控
  • 调试和评估

交互方式改进

GPT-5.3-Codex在工作过程中提供更频繁的进度更新,用户可以:

  • 实时提问
  • 讨论方法论
  • 在不丢失上下文的情况下引导解决方案
  • 追踪关键决策并提前干预

这种设计使其更像一个可以持续互动的同事,而非等待最终输出的工具。

网络安全考量

鉴于GPT-5.3-Codex被归类为网络安全领域的"高能力"模型,OpenAI部署了最全面的安全防护措施:

  • 双重用途安全训练
  • 自动化监控系统
  • 高级功能的可信访问控制
  • 整合威胁情报的执行管道

配套安全举措包括:

  • Trusted Access for Cyber: 专注于防御性研究的试点项目
  • Aardvark扩展私测: OpenAI的安全研究代理
  • 免费漏洞扫描: 面向主要开源项目
  • 1000万美元API额度: 通过网络安全资助计划支持诚信安全研究

OpenAI表示,虽然没有确凿证据表明该模型能够端到端自动化网络攻击,但出于预防考虑,采取了这些措施。

可用性与定价

当前可用渠道:

  • ChatGPT Plus、Pro、Business和Enterprise订阅用户
  • Codex应用(macOS)
  • 命令行界面(CLI)
  • IDE扩展
  • Web界面
  • Free和Go用户也获得了限时访问权限

API访问: 计划推出,具体时间待定

性能优化: 付费计划的速率限制翻倍,以鼓励密集测试

基础设施和推理栈的改进使所有Codex用户都能获得25%的速度提升,这一提升来自于技术优化而非用户端配置。

竞争格局

GPT-5.3-Codex的发布时间与Anthropic发布Claude Opus 4.6完全同步,行业观察者将这一现象称为"AI编程战争"的开端。两家公司还计划在超级碗期间播放竞争性广告,显示出市场竞争的激烈程度。

根据Every.to的独立测试,Opus 4.6在原始基准分数、首次尝试可靠性和构建成功一致性方面具有优势,但GPT-5.3-Codex在任务完成速度上更快,且具有更友好和富有创造力的交互风格。

总结

GPT-5.3-Codex代表了从专用编程助手向通用专业代理的转变。其56.8%的SWE-Bench Pro准确率、77.3%的Terminal-Bench 2.0得分,以及在自身开发过程中发挥的作用,标志着AI模型自我改进能力的新阶段。

对于开发团队而言,400K上下文窗口、128K输出限制,以及在长周期任务中维持一致性的能力,使其成为处理复杂软件工程工作流的可行工具。网络安全领域的"高能力"分类虽然带来了额外的部署限制,但也反映了模型在漏洞识别方面的实际能力。

该模型现已通过ChatGPT付费计划向用户开放,API访问即将推出。随着竞争对手同步发布类似产品,AI辅助编程市场正进入一个新的发展阶段。

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码