TranslateGemma 27B
TranslateGemma 27B is an AI model published by Google Deep Mind, released on 2026-01-15, for 翻译大模型, with 29.0B parameters, and 128K tokens context length, requiring about 55GB storage, under the Gemma Terms of Use license.
Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology
TranslateGemma 27B 是该系列中参数量最大、性能最强的版本,专为追求极致翻译质量的企业级应用和云端部署而设计。
1. 模型简介
- 发布机构: Google DeepMind
- 发布时间: 2026年1月15日
- 定位: 高精度、多语言通用翻译模型,适用于需要处理复杂语境和细微文化差异的场景。
2. 架构与技术规格
- 模型参数: 约 29 亿 (HuggingFace 标注 29B,对应 27B 命名)。
- 训练数据: 在 43 亿 token 的 SFT 数据和 1000 万 token 的 RL 数据上进行训练。
- 硬件要求: 推荐使用 H100 GPU 或 TPU 进行部署。
3. 核心能力
- 精准翻译: 在处理专业术语、文学作品及长文本时表现出更高的连贯性和准确性。
- 多模态集成: 同样具备图像翻译能力,能够结合视觉上下文提供更准确的译文。
- 提示工程: 官方建议将其设定为“专业翻译员”角色进行 Prompting,以获得最佳的文化适应性翻译。
4. 性能与基准评测
- 基准测试: 在 WMT24++ 等权威测试集中,针对 55 种语言的平均误差率最低,尤其在低资源语言翻译上表现出强大的泛化能力。
5. 访问与许可
- 开源协议: Gemma Terms of Use。
- 部署: 适合通过 Vertex AI 或私有云集群部署服务。
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
