TranslateGemma 12B
TranslateGemma 12B is an AI model published by Google Deep Mind, released on 2026-01-15, for 翻译大模型, with 13.0B parameters, and 128K tokens context length, requiring about 25GB storage, under the Gemma Terms of Use license.
Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology
TranslateGemma 12B 是 Google DeepMind 发布的开源翻译模型系列中的中等尺寸版本。该模型在性能与效率之间取得了极佳平衡,官方数据显示其翻译质量超越了参数量更大的 Gemma 3 27B 基线模型。
1. 模型简介与核心特点
- 发布机构: Google DeepMind
- 发布时间: 2026年1月15日
- 核心优势: “以小博大”,通过高质量数据微调和强化学习,在 12B 尺寸上实现了超越前代更大模型的翻译准确率。
2. 架构与技术规格
- 模型参数: 约 13 亿 (HuggingFace 标注 13B,对应 12B 命名)。
- 训练流程: 采用两阶段微调:(1) SFT:混合人类翻译与 Gemini 合成数据;(2) RL:使用 MetricX-QE 等奖励模型进行偏好优化。
- 架构: 基于 Transformer Decoder,继承了 Gemma 3 的多模态理解能力。
3. 核心能力与支持模态
- 多模态翻译: 原生支持图像输入,可直接翻译图片内的文本信息,无需额外的 OCR 步骤,且在 Vistra 基准测试中表现优异。
- 语言支持: 覆盖 55 种核心语言,并在罗曼语族和日耳曼语族上表现出显著的质量提升。
4. 性能与基准评测
- WMT24++: 在 MetricX 评分体系下,12B 版本的误差率低于 Gemma 3 27B 基线模型。
- 效率: 适合在消费级 GPU(如 NVIDIA RTX 4090)或高性能笔记本上运行。
5. 应用场景与限制
- 推荐场景: 本地化工作流、开发者工具集成、高性能桌面应用、学术研究。
- 输入限制: 用户角色输入必须遵循特定的 JSON 列表格式,包含 source/target 语言代码。
6. 访问方式
- 协议: Gemma Terms of Use。
- 获取: Hugging Face, Kaggle。
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
