DataLearner logoDataLearnerAI
Latest AI Insights
Model Evaluations
Model Directory
Model Comparison
Resource Center
Tools
LanguageEnglish

加载中...

DataLearner logoDataLearner AI

A knowledge platform focused on LLM benchmarking, datasets, and practical instruction with continuously updated capability maps.

Products

  • Leaderboards
  • Model comparison
  • Datasets

Resources

  • Tutorials
  • Editorial
  • Tool directory

Company

  • About
  • Privacy policy
  • Data methodology
  • Contact

© 2026 DataLearner AI. DataLearner curates industry data and case studies so researchers, enterprises, and developers can rely on trustworthy intelligence.

Privacy policyTerms of service
Page navigation
目录
Model catalogHunyuan-T1
HU

Hunyuan-T1

Hunyuan-T1

Release date: 2025-03-21更新于: 2025-03-22 11:37:162,815
Live demoGitHubHugging FaceCompare
Parameters
Not disclosed
Context length
4K
Chinese support
Supported
Reasoning ability

Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology

Hunyuan-T1

Model basics

Reasoning traces
Supported
Thinking modes
Thinking modes not supported
Context length
4K tokens
Max output length
No data
Model type
推理大模型
Release date
2025-03-21
Model file size
0
MoE architecture
No
Total params / Active params
0.0B / N/A
Knowledge cutoff
No data
Hunyuan-T1

Open source & experience

Code license
不开源
Weights license
不开源- 不开源
GitHub repo
GitHub link unavailable
Hugging Face
Hugging Face link unavailable
Live demo
https://huggingface.co/spaces/tencent/Hunyuan-T1
Hunyuan-T1

Official resources

Paper
混元-T1: 强化学习驱动,业内首个超大规模混合Mamba推理模型正式发布
DataLearnerAI blog
腾讯发布全新推理大模型Hunyuan-T1:mamba与transformer结合的新架构,与业界模型对比评测结果不错,但是不开源
Hunyuan-T1

API details

API speed
No data
No public API pricing yet.
Hunyuan-T1

Benchmark Results

Hunyuan-T1 currently shows benchmark results led by MMLU Pro (9 / 114, score 87.20), MATH-500 (19 / 43, score 96.20), LiveCodeBench (53 / 106, score 64.90). This page also consolidates core specs, context limits, and API pricing so you can evaluate the model from benchmark results and deployment constraints together.

Thinking
All modesNormal

综合评估

3 evaluations
Benchmark / mode
Score
Rank/total
C-Eval
Off
91.80
4 / 5
MMLU Pro
Off
87.20
9 / 114
GPQA Diamond
Off
69.30
99 / 161

数学推理

2 evaluations
Benchmark / mode
Score
Rank/total
MATH-500
Off
96.20
19 / 43
AIME 2024
Off
78.20
34 / 62

编程与软件工程

1 evaluations
Benchmark / mode
Score
Rank/total
LiveCodeBench
Off
64.90
53 / 106
View benchmark analysisCompare with other models
Hunyuan-T1

Publisher

腾讯AI实验室
腾讯AI实验室
View publisher details
Hunyuan-T1

Model Overview

Hunyuan-T1大模型是腾讯发布的自研大模型,基于其自研的TurboS架构,采用Hybrid-Transformer-Mamba MoE混合设计,结合了多种技术优势:

  1. Transformer-Mamba混合架构:Transformer模块:负责长文本信息捕获,解决传统模型在长上下文中的信息丢失和长距离依赖问题。Mamba模块:优化长序列处理效率,通过状态空间模型(SSM)降低计算复杂度,在相同硬件条件下解码速度提升至2倍,同时显著减少资源消耗。
  2. MoE(Mixture of Experts):通过动态路由机制扩展模型容量,支持超大规模参数的高效训练与推理。

训练策略与数据

  1. 后训练优化:96.7%的计算资源用于强化学习(RL)驱动的后训练,核心目标为提升纯推理能力与人类偏好对齐。采用**课程学习(Curriculum Learning)**策略,逐步扩展上下文长度并增加数据难度,使模型逐步适应复杂任务。
  2. 数据集构建:覆盖数学、逻辑推理、科学问题求解、代码生成等领域,涵盖从基础到竞赛级难度的任务。结合真实反馈(Ground-truth)数据,确保输出结果的可控性与准确性。
  3. 强化学习技术:引入数据回放(Data Replay)与周期性策略重置(Periodic Policy Resetting),提升训练稳定性(长期稳定性提升超50%)。采用**自奖励(Self-Rewarding)**机制:基于早期T1-Preview版本对输出评分,结合统一奖励模型引导迭代优化,增强信息密度与细节丰富性。

性能评测与对比

  1. 基准测试表现:在MMLU-pro(通用知识)、CEval(中文理解)、AIME(医学推理)、Zebra Logic(逻辑分析)等中英文评测中,Hunyuan-T1表现持平或略优于DeepSeek R1。内部评估显示,其在文化创意指令跟随、文本摘要、智能体(Agent)任务等场景中具有微弱优势。
  2. 推理效率:得益于Mamba架构,在长文本任务中解码速度提升至2倍,资源消耗降低,适合低延迟、高吞吐需求场景。


根据DataLearnerAI收集的大模型评测排行,Hunyuan-T1的推理能力还可以,但是不是业界最强的:


Hunyuan-T1与业界其它推理大模型的评测对比

数据来源: https://www.datalearner.com/ai-models/ai-benchmarks-tests/compare-result?benchmarkInputString=16,32,36,40,37&modelInputString=542,492,515,495 



技术局限与未公开信息

  1. 上下文长度:未明确具体上限,但通过课程学习策略扩展,结合Mamba架构特性推测支持数万token级别长文本处理。
  2. 参数规模:基于“超大规模MoE”描述,推测参数量为百亿至千亿级,但未公开具体数值。
  3. 多语言支持:明确覆盖中英文,其他语言能力尚未披露。

应用场景

  1. 复杂推理任务:如竞赛级数学/科学问题求解、长文本逻辑分析。
  2. 高效生成场景:需低资源消耗的长文本生成(如报告撰写、代码生成)。
  3. 垂直领域:文化创意内容生成、智能体交互、高精度摘要等。

总结

Hunyuan-T1通过混合架构设计与强化学习优化,在推理效率与长文本处理能力上实现了技术突破。其评测表现显示出在复杂任务中的竞争力,尤其在中文场景与特定垂直领域具备应用潜力。然而,模型参数量、多语言扩展性等细节仍有待进一步公开验证。该模型目前通过腾讯“元宝APP”提供服务,暂未公布开源计划。

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码