DeepSeek V3.2 Speciale
DeepSeek V3.2-Speciale 是 V3.2 的高算力推理变体,放宽输出长度限制以提升复杂推理能力,在 IMO、IOI、ICPC 等顶级竞赛评测中达到金牌水平,性能超过 GPT-5,与 Gemini-3.0-Pro 相当,不支持工具调用,MIT 协议开源。
数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法
DeepSeek V3.2 Speciale 当前已收录的代表性评测结果包括 AIME2025(22 / 107,得分 96)、CodeForces(3 / 10,得分 2701)、HLE(49 / 128,得分 30.60)。 本页还汇总了参数规模、上下文长度与 API 价格,便于结合评测结果与部署约束一起判断模型适配度。
DeepSeek V3.2 系列共包含三个版本:V3.2-Exp、V3.2 正式版和 V3.2-Speciale。V3.2-Exp 是2025年9月发布的实验版本,用于验证新架构;V3.2 正式版于2026年1月发布,是完成完整后训练流程的通用旗舰版本;V3.2-Speciale 是同期发布的高算力推理变体,专为极限推理场景设计,不支持工具调用。
DeepSeek V3.2-Speciale 与 V3.2 正式版共享相同的模型结构,区别在于推理时放宽了输出长度限制,允许模型使用更多的推理 token 来处理复杂问题。这一设计的代价是放弃了工具调用能力,Speciale 只支持纯思考模式,不支持在推理过程中调用外部工具。
在多项顶级学科竞赛评测中,V3.2-Speciale 达到了金牌水平,包括2025年国际数学奥林匹克(IMO)、国际信息学奥林匹克(IOI)、ICPC 世界总决赛以及中国数学奥林匹克(CMO)。在与闭源模型的横向对比中,V3.2-Speciale 在多个推理 benchmark 上超过了 GPT-5,与 Gemini-3.0-Pro 的表现相当。
需要说明的是,这些成绩依赖于更高的推理算力投入和更长的输出长度,实际使用成本高于 V3.2 正式版,也不适合日常对话、编码助手或需要工具调用的 agent 场景。Speciale 的定位是研究和竞赛导向,适合需要在数学推理、代码竞赛等高难度任务上压榨模型能力上限的场景。模型同样以 MIT 协议开源。
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
