GPT Opensources 120B
GPT Opensources 120B is an AI model published by OpenAI, released on 2025-08-06, for 推理大模型, with 117.0B parameters, and 128K tokens context length, requiring about 240GB storage, under the Apache 2.0 license.
Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology
| Modality | Input | Output |
|---|---|---|
| Text | $0.15 | $0.6 |
GPT OSS 120B currently shows benchmark results led by AIME 2024 (2 / 62, score 96.60), MMLU (9 / 64, score 90), AIME2025 (17 / 107, score 97.90). This page also consolidates core specs, context limits, and API pricing so you can evaluate the model from benchmark results and deployment constraints together.
OpenAI 在 2025 年 8 月推出了 gpt-oss-120b,这是一款开源权重的大规模推理模型,采用 Mixture-of-Experts(MoE)架构,定位为高性价比的可部署推理方案。模型权重与推理实现以 Apache-2.0 许可发布,并配套了使用政策文件,确保在开放使用的同时兼顾合规性与安全性。
该模型的设计目标是在单卡 80GB GPU 环境下运行完整 120B 参数版本,同时保持较高的推理性能和可扩展性。通过精心的路由策略与稀疏激活,gpt-oss-120b 在多项评测中表现接近 OpenAI 的 o4-mini,并支持完整的链式思考输出与工具调用。
这些设计让模型在保持规模的同时显著降低了单次推理成本,也为部署在本地或云端提供了更灵活的选择。
gpt-oss-120b 在大规模混合数据上训练,涵盖通用文本、编程与 STEM 领域,知识更新至 2024 年 6 月。训练完成后,模型经过监督微调和强化学习优化,不同任务可切换推理努力等级,并支持输出完整的推理链路。
它使用 harmony 格式进行对话交互,官方提供了渲染模板和配套库,方便开发者快速集成到已有系统中。
在 AIME、HLE、MMLU、GPQA 等基准上,gpt-oss-120b 的得分普遍高于 o3-mini,部分任务接近 o4-mini。在代码生成、数学推理和工具调用方面表现稳定,但在事实性问答和指令防御上略有不足,幻觉率高于 o4-mini。这意味着在生产部署中,最好配合检索、浏览与结果验证机制,以确保可靠性。
GPT-OSS-120B的评测对比可以参考:
OpenAI 对 gpt-oss-120b 进行了对抗性安全评估,包括在生物、化学和网络安全领域的微调实验,未达到高风险能力阈值。在拒绝越狱的表现上与 o4-mini 接近,但在复杂提示注入的防御上略逊一筹。
开发者可以通过 Hugging Face 获取权重,并使用官方提供的 PyTorch、Triton、Metal 实现进行本地推理。模型兼容 Transformers、vLLM、Ollama、LM Studio 等主流推理框架,也已在部分云平台上线。对于需要在低显存硬件上运行的场景,可选择 20B 参数版本作为替代。
gpt-oss-120b 在开源权重模型中,结合了大规模 MoE 架构、高推理性能和较低的部署门槛,为企业和开发者提供了一个可控、可定制的推理模型选择。虽然在部分稳健性和事实性上仍有改进空间,但在数据主权、离线可用性和工具集成等方面具有明显优势。
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
