模型评测对比
最新基准汇总
Hunyuan-T1与DeepSeek-R1、OpenAI o1、GPT-4.5模型对比
本页面提供Hunyuan-T1,DeepSeek-R1,OpenAI o1,GPT-4.5模型的对比,包括参数、开源情况、API价格等。同时,页面也会展示Hunyuan-T1,DeepSeek-R1,OpenAI o1,GPT-4.5模型在MMLU Pro,GPQA Diamond,MATH-500,LiveCodeBench,AIME 2024等评测基准中的详细对比数据,评测数据来自系统收录结果汇总。
📊 左右滑动可查看更多模型数据 →
Hunyuan-T1
腾讯AI实验室 发布的推理大模型模型。
DeepSeek-R1
DeepSeek-AI 发布的推理大模型模型。
核心信息
开发机构
DeepSeek-AI

发布时间
2025-01-20
模型类型
推理大模型
MoE 架构
性能与规格
总参数量
6,710 亿
激活参数量
未公开
模型大小
134GB
推理能力
暂无数据
推理速度
暂无数据
思考模式
深度思考
最大上下文
128K
最大输出
0
支持模态
Input
Output
API 价格 (每百万Tokens)
输入价格
--
输出价格
--
开源与许可
代码开源
否
权重开源
否
商业用途
免费商用授权
相关资源
论文/报告
查看
模型详细介绍
阅读
相关链接
OpenAI o1
OpenAI 发布的推理大模型模型。
评测对比模式筛选
当前大多数模型的评测都有不同的模式,包括是否使用推理过程,是否使用工具等,建议选择特定模式对比。
点击下方任一按钮,将 过滤模型的模式的对比表格,并同步更新
汇总图 与 各基准小图。
Hunyuan-T1与DeepSeek-R1、OpenAI o1、GPT-4.5模型各评测基准得分对比表
评测基准 | Hunyuan-T1 normal | DeepSeek-R1 normal | OpenAI o1 normal | GPT-4.5 normal |
---|---|---|---|---|
MMLU Pro
知识问答
|
87.2 | 84 | 91.04 | 86.1 |
GPQA Diamond
常识推理
|
69.3 | 71.5 | 77.3 | 71.4 |
MATH-500
数学推理
|
96.2 | 97.3 | 96.4 | 90.7 |
LiveCodeBench
代码生成
|
64.9 | 65.9 | 71 | 46.4 |
AIME 2024
数学推理
|
78.2 | 79.8 | 79.2 | 36.7 |