Hunyuan-MT-7B
Hunyuan-MT-7B is an AI model published by 腾讯AI实验室, released on 2025-09-01, for 翻译大模型, with 70.0B parameters, and 256K tokens context length, requiring about 16.055 GB storage, under the TENCENT HUNYUAN COMMUNITY LICENSE AGREEMENT license.
Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology
2025 年 9 月 1 日,腾讯混元团队正式开源了 Hunyuan-MT-7B 翻译模型及其融合版本 Hunyuan-MT-Chimera-7B。在 ACL WMT2025 国际机器翻译大赛中,该系列模型在 31 个语种项目中斩获 30 项第一名,展现了强大的多语种翻译能力。它不仅支持 33 种主流语言之间互译,还特别支持包括藏语、维吾尔语、哈萨克语、蒙古语等在内的 中国少数民族语言与汉语互译,在语言覆盖度上极具突破性。
尽管官方未明确披露上下文长度,但作为混元模型家族的一部分,Hunyuan 系列具备 原生支持超长上下文(最长可达 256K tokens) 的能力。这意味着在长文本翻译任务中,它有潜力展现稳定的性能表现。
Hunyuan-MT-7B 的研发团队构建了一整套五阶段训练流程,保证了模型的翻译质量与适用性。
在自动评测指标 XCOMET-XXL 上,Hunyuan-MT-7B 的表现显著优于同类模型,尤其在中文与少数民族语互译方面取得了行业领先的分数。
在人类评测中,中英双向翻译的平均分数接近满分,远超 Google 翻译等传统系统,体现了其在语义准确性和可读性上的优势。
Hunyuan-MT-7B 的开源标志着翻译大模型进入一个新的阶段。它具备以下几个显著特点:
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
