TR

TranslateGemma 27B

TranslateGemma 27B

发布时间: 2026-01-1511
模型参数
29.0亿
上下文长度
128K
中文支持
支持
推理能力

模型基本信息

推理过程
不支持
上下文长度
128K tokens
最大输出长度
8192 tokens
模型类型
翻译大模型
发布时间
2026-01-15
模型文件大小
55GB
MoE架构
总参数 / 激活参数
29.0 亿 / 暂无数据
知识截止
暂无数据
推理模式
常规模式(Non-Thinking Mode)

开源和体验地址

代码开源状态
预训练权重开源
Gemma Terms of Use- 免费商用授权
GitHub 源码
暂无GitHub开源地址
在线体验
暂无在线体验地址

官方介绍与博客

DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度
3/5
暂无公开的 API 定价信息。

评测得分

当前尚无可展示的评测数据。

发布机构

模型解读

TranslateGemma 27B 是该系列中参数量最大、性能最强的版本,专为追求极致翻译质量的企业级应用和云端部署而设计。

1. 模型简介
- 发布机构: Google DeepMind
- 发布时间: 2026年1月15日
- 定位: 高精度、多语言通用翻译模型,适用于需要处理复杂语境和细微文化差异的场景。

2. 架构与技术规格
- 模型参数: 约 29 亿 (HuggingFace 标注 29B,对应 27B 命名)。
- 训练数据: 在 43 亿 token 的 SFT 数据和 1000 万 token 的 RL 数据上进行训练。
- 硬件要求: 推荐使用 H100 GPU 或 TPU 进行部署。

3. 核心能力
- 精准翻译: 在处理专业术语、文学作品及长文本时表现出更高的连贯性和准确性。
- 多模态集成: 同样具备图像翻译能力,能够结合视觉上下文提供更准确的译文。
- 提示工程: 官方建议将其设定为“专业翻译员”角色进行 Prompting,以获得最佳的文化适应性翻译。

4. 性能与基准评测
- 基准测试: 在 WMT24++ 等权威测试集中,针对 55 种语言的平均误差率最低,尤其在低资源语言翻译上表现出强大的泛化能力。

5. 访问与许可
- 开源协议: Gemma Terms of Use。
- 部署: 适合通过 Vertex AI 或私有云集群部署服务。

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码