TR

TranslateGemma 12B

TranslateGemma 12B

发布时间: 2026-01-1519
模型参数
13.0亿
上下文长度
128K
中文支持
支持
推理能力

模型基本信息

推理过程
不支持
上下文长度
128K tokens
最大输出长度
8192 tokens
模型类型
翻译大模型
发布时间
2026-01-15
模型文件大小
25GB
MoE架构
总参数 / 激活参数
13.0 亿 / 暂无数据
知识截止
暂无数据
推理模式
常规模式(Non-Thinking Mode)

开源和体验地址

代码开源状态
预训练权重开源
Gemma Terms of Use- 免费商用授权
GitHub 源码
暂无GitHub开源地址
在线体验
暂无在线体验地址

官方介绍与博客

DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度
4/5
暂无公开的 API 定价信息。

评测得分

当前尚无可展示的评测数据。

发布机构

模型解读

TranslateGemma 12B 是 Google DeepMind 发布的开源翻译模型系列中的中等尺寸版本。该模型在性能与效率之间取得了极佳平衡,官方数据显示其翻译质量超越了参数量更大的 Gemma 3 27B 基线模型。

1. 模型简介与核心特点
- 发布机构: Google DeepMind
- 发布时间: 2026年1月15日
- 核心优势: “以小博大”,通过高质量数据微调和强化学习,在 12B 尺寸上实现了超越前代更大模型的翻译准确率。

2. 架构与技术规格
- 模型参数: 约 13 亿 (HuggingFace 标注 13B,对应 12B 命名)。
- 训练流程: 采用两阶段微调:(1) SFT:混合人类翻译与 Gemini 合成数据;(2) RL:使用 MetricX-QE 等奖励模型进行偏好优化。
- 架构: 基于 Transformer Decoder,继承了 Gemma 3 的多模态理解能力。

3. 核心能力与支持模态
- 多模态翻译: 原生支持图像输入,可直接翻译图片内的文本信息,无需额外的 OCR 步骤,且在 Vistra 基准测试中表现优异。
- 语言支持: 覆盖 55 种核心语言,并在罗曼语族和日耳曼语族上表现出显著的质量提升。

4. 性能与基准评测
- WMT24++: 在 MetricX 评分体系下,12B 版本的误差率低于 Gemma 3 27B 基线模型。
- 效率: 适合在消费级 GPU(如 NVIDIA RTX 4090)或高性能笔记本上运行。

5. 应用场景与限制
- 推荐场景: 本地化工作流、开发者工具集成、高性能桌面应用、学术研究。
- 输入限制: 用户角色输入必须遵循特定的 JSON 列表格式,包含 source/target 语言代码。

6. 访问方式
- 协议: Gemma Terms of Use。
- 获取: Hugging Face, Kaggle。

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码