TranslateGemma 4B
TranslateGemma 4B is an AI model published by Google Deep Mind, released on 2026-01-15, for 翻译大模型, with 5.0B parameters, and 128K tokens context length, requiring about 10GB storage, under the Gemma Terms of Use license.
Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology
TranslateGemma 是 Google DeepMind 发布的一系列基于 Gemma 3 架构的最先进开放翻译模型。本模型为 4B 参数版本,专为移动设备和边缘计算环境优化,实现了在受限资源下运行高性能翻译任务。
1. 模型简介与核心特点
- 发布机构: Google DeepMind
- 发布时间: 2026年1月15日
- 定位: Gemma 3 家族中的专用翻译模型。
- 核心目标: 提供轻量级、高质量的开源翻译解决方案,打破语言障碍,支持在本地设备上离线运行。
2. 架构与技术规格
- 模型参数: 约 50 亿 (HuggingFace 标注 5B,对应 4B 命名)。
- 架构特点: 基于 Gemma 3 基础模型,经历了两个阶段的微调:首先使用包含人类翻译和 Gemini 生成的合成数据的海量平行语料进行监督微调 (SFT),然后使用 MetricX-QE 和 AutoMQM 等奖励模型进行强化学习 (RL) 优化。
- 上下文窗口: 128K (基于 Gemma 3 架构推断)。
3. 核心能力与支持模态
- 多模态支持: 支持 文本-文本 翻译以及 图像-文本 翻译(可直接翻译图像中的文字)。
- 语言覆盖: 核心支持 55 种语言(涵盖西班牙语、法语、中文、印地语等主要语言及部分低资源语言),并在训练中接触了超过 500 个语言对。
- 输入格式: 采用“高度固执”(highly opinionated)的 Chat Template,要求严格的 JSON 格式输入(包含 type, source_lang_code, target_lang_code 等)。
4. 性能与基准评测
- 性能表现: 尽管参数较小,但通过蒸馏 Gemini 的能力,其翻译质量在多项基准测试中表现优异,特定场景下误差率显著低于基线模型。
5. 应用场景
- 推荐用例: 移动应用内置翻译、实时聊天翻译、旅行助手、离线文档翻译。
- 部署优势: 适合在手机、平板等端侧设备部署。
6. 访问与许可
- 开源协议: Gemma Terms of Use (允许商用,但在特定高风险领域受限)。
- 访问方式: 可通过 Hugging Face、Kaggle 下载权重,或在 Vertex AI 上部署。
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
