Hunyuan-MT-7B
不支持
256K tokens
4096 tokens
翻译大模型
2025-09-01
16.055 GB
2025 年 9 月 1 日,腾讯混元团队正式开源了 Hunyuan-MT-7B 翻译模型及其融合版本 Hunyuan-MT-Chimera-7B。在 ACL WMT2025 国际机器翻译大赛中,该系列模型在 31 个语种项目中斩获 30 项第一名,展现了强大的多语种翻译能力。它不仅支持 33 种主流语言之间互译,还特别支持包括藏语、维吾尔语、哈萨克语、蒙古语等在内的 中国少数民族语言与汉语互译,在语言覆盖度上极具突破性。
尽管官方未明确披露上下文长度,但作为混元模型家族的一部分,Hunyuan 系列具备 原生支持超长上下文(最长可达 256K tokens) 的能力。这意味着在长文本翻译任务中,它有潜力展现稳定的性能表现。
Hunyuan-MT-7B 的研发团队构建了一整套五阶段训练流程,保证了模型的翻译质量与适用性。
在自动评测指标 XCOMET-XXL 上,Hunyuan-MT-7B 的表现显著优于同类模型,尤其在中文与少数民族语互译方面取得了行业领先的分数。
在人类评测中,中英双向翻译的平均分数接近满分,远超 Google 翻译等传统系统,体现了其在语义准确性和可读性上的优势。
Hunyuan-MT-7B 的开源标志着翻译大模型进入一个新的阶段。它具备以下几个显著特点:
关注DataLearnerAI微信公众号,接受最新大模型资讯