GP

GPT-5.1 Codex Mini

OpenAI GPT-5.1 Codex Mini

发布时间: 2025-11-14126
模型参数
未披露
上下文长度
暂无数据
中文支持
不支持
推理能力

模型基本信息

推理过程
支持
上下文长度
暂无数据
最大输出长度
暂无数据
模型类型
暂无数据
发布时间
2025-11-14
模型文件大小
暂无数据
MoE架构
总参数 / 激活参数
0.0 亿 / 不涉及
知识截止
暂无数据
推理模式
常规模式(Non-Thinking Mode)思考模式(Thinking Mode)

开源和体验地址

代码开源状态
不开源
预训练权重开源
不开源- 不开源
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度
3/5
💡默认单位:$/100万 tokens。若计费单位不同,则以供应商公开的原始标注为准。
标准计费Standard
模态输入输出
文本$0.25$2.00
缓存计费Cache
模态输入 Cache输出 Cache
文本$0.03--

评测得分

当前尚无可展示的评测数据。

发布机构

模型解读

简介与定位

GPT-5.1 Codex Mini 是 GPT-5.1 Codex 的紧凑版,面向成本敏感与低时延的编码场景,在能力有所取舍的同时提供更高的性价比。

架构与技术规格

官方未披露参数量与训练细节。官方 Codex 模型页与文档将其标注为更小、更经济的版本;其上下文窗口与最大输出令牌未在该页面明确给出。

能力与模态

模型为文本模态,聚焦日常编码、调试与轻量级工程任务,可在 Codex CLI/IDE 扩展中使用,适配长期会话但强调更低成本。

性能与评测

官方未提供统一的公开基准分数。其能力定位与价格层级表明适用于标准化、约束更清晰的编码任务。

应用场景与限制

适合对吞吐/成本更敏感的编码工作流;不适合需要最强能力或多模态支持的场景。

访问与许可

通过 OpenAI API 与 Codex 工具链可用;未开源;采用按 tokens 计费。

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码