Hunyuan-MT-7B
Hunyuan-MT-7B
模型参数
70.0亿
上下文长度
256K
中文支持
支持
推理能力
模型基本信息
推理过程
不支持
上下文长度
256K tokens
最大输出长度
4096 tokens
模型类型
暂无数据
发布时间
2025-09-01
模型文件大小
16.055 GB
MoE架构
否
总参数 / 激活参数
70.0 亿 / 不涉及
知识截止
暂无数据
推理模式
常规模式(Non-Thinking Mode)
开源和体验地址
官方介绍与博客
官方论文
暂无官方论文
DataLearnerAI博客
暂无介绍博客
API接口信息
接口速度
4/5
暂无公开的 API 定价信息。
评测得分
当前尚无可展示的评测数据。
发布机构
腾讯AI实验室
查看发布机构详情 模型解读
2025 年 9 月 1 日,腾讯混元团队正式开源了 Hunyuan-MT-7B 翻译模型及其融合版本 Hunyuan-MT-Chimera-7B。在 ACL WMT2025 国际机器翻译大赛中,该系列模型在 31 个语种项目中斩获 30 项第一名,展现了强大的多语种翻译能力。它不仅支持 33 种主流语言之间互译,还特别支持包括藏语、维吾尔语、哈萨克语、蒙古语等在内的 中国少数民族语言与汉语互译,在语言覆盖度上极具突破性。
模型规格
- 参数规模:Hunyuan-MT-7B 约有 70 亿参数,在保持较强性能的同时兼顾了推理速度与部署成本。
- 融合模型:Chimera-7B 是业内首个开源的翻译集成模型,能够将多个翻译系统结果融合,生成更加优质的译文。
上下文能力
尽管官方未明确披露上下文长度,但作为混元模型家族的一部分,Hunyuan 系列具备 原生支持超长上下文(最长可达 256K tokens) 的能力。这意味着在长文本翻译任务中,它有潜力展现稳定的性能表现。
训练流程与技术亮点
Hunyuan-MT-7B 的研发团队构建了一整套五阶段训练流程,保证了模型的翻译质量与适用性。
- 通用预训练 使用 1.3 万亿 tokens,覆盖 112 种语言与方言。数据通过多维度过滤系统筛选,并打上学科、行业、主题标签,保证多样性和高质量。
- 翻译导向预训练 混合单语与平行语料,通过比例调控与灾难性遗忘缓解策略,保证翻译专用能力与通用能力的平衡。
- 监督微调(SFT) 阶段一:使用约 300 万对平行语料,包括公开数据、人校对语料与合成语料。 阶段二:使用约 26.8 万对高质量语料,经过大模型筛选与人工审核,进一步提升准确性。
- 强化学习(RL) 结合 XComet-XXL 打分、术语匹配、重复惩罚等奖励信号,提升译文的忠实度与流畅度。
- 弱到强融合强化学习 在推理阶段同时输入多个译文版本,模型生成“精炼译文”,在低资源语种上的翻译质量提升尤为显著。
性能评估
在自动评测指标 XCOMET-XXL 上,Hunyuan-MT-7B 的表现显著优于同类模型,尤其在中文与少数民族语互译方面取得了行业领先的分数。
在人类评测中,中英双向翻译的平均分数接近满分,远超 Google 翻译等传统系统,体现了其在语义准确性和可读性上的优势。
部署与效率
- 推理速度:7B 参数规模使其在保证性能的同时,能够以更低的资源消耗实现更快的推理。
- 量化优化:通过腾讯自研的 FP8 量化工具 AngelSlim,推理性能提升约 30%。
- 应用落地:该模型已应用于腾讯会议、企业微信、QQ 浏览器、翻译君等多个产品,验证了其在大规模应用场景下的稳定性和实用性。
总结与展望
Hunyuan-MT-7B 的开源标志着翻译大模型进入一个新的阶段。它具备以下几个显著特点:
- 以 70 亿参数规模实现高质量翻译,兼顾性能与部署成本;
- 覆盖主流语言和少数民族语言,在跨语种、低资源任务中表现突出;
- 通过完整的训练与优化流程,保证了模型的可扩展性和实用性;
- 已在实际应用场景中得到验证,具备商业落地潜力。
DataLearner 官方微信
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
