GPT-5.1 Codex Mini
OpenAI GPT-5.1 Codex Mini
模型参数
未披露
上下文长度
暂无数据
中文支持
不支持
推理能力
模型基本信息
推理过程
支持
上下文长度
暂无数据
最大输出长度
暂无数据
模型类型
暂无数据
发布时间
2025-11-14
模型文件大小
暂无数据
MoE架构
否
总参数 / 激活参数
0.0 亿 / 不涉及
知识截止
暂无数据
推理模式
常规模式(Non-Thinking Mode)思考模式(Thinking Mode)
开源和体验地址
代码开源状态
不开源
预训练权重开源
不开源- 不开源
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址
官方介绍与博客
官方论文
DataLearnerAI博客
暂无介绍博客
API接口信息
接口速度
3/5
默认单位:$/100万 tokens。若计费单位不同,则以供应商公开的原始标注为准。
标准计费Standard
| 模态 | 输入 | 输出 |
|---|---|---|
| 文本 | $0.25 | $2.00 |
缓存计费Cache
| 模态 | 输入 Cache | 输出 Cache |
|---|---|---|
| 文本 | $0.03 | -- |
评测得分
当前尚无可展示的评测数据。
发布机构
OpenAI
查看发布机构详情 模型解读
简介与定位
GPT-5.1 Codex Mini 是 GPT-5.1 Codex 的紧凑版,面向成本敏感与低时延的编码场景,在能力有所取舍的同时提供更高的性价比。
架构与技术规格
官方未披露参数量与训练细节。官方 Codex 模型页与文档将其标注为更小、更经济的版本;其上下文窗口与最大输出令牌未在该页面明确给出。
能力与模态
模型为文本模态,聚焦日常编码、调试与轻量级工程任务,可在 Codex CLI/IDE 扩展中使用,适配长期会话但强调更低成本。
性能与评测
官方未提供统一的公开基准分数。其能力定位与价格层级表明适用于标准化、约束更清晰的编码任务。
应用场景与限制
适合对吞吐/成本更敏感的编码工作流;不适合需要最强能力或多模态支持的场景。
访问与许可
通过 OpenAI API 与 Codex 工具链可用;未开源;采用按 tokens 计费。
DataLearner 官方微信
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
