TranslateGemma 27B
TranslateGemma 27B
模型参数
29.0亿
上下文长度
128K
中文支持
支持
推理能力
模型基本信息
推理过程
不支持
上下文长度
128K tokens
最大输出长度
8192 tokens
模型类型
翻译大模型
发布时间
2026-01-15
模型文件大小
55GB
MoE架构
是
总参数 / 激活参数
29.0 亿 / 暂无数据
知识截止
暂无数据
推理模式
常规模式(Non-Thinking Mode)
开源和体验地址
官方介绍与博客
DataLearnerAI博客
暂无介绍博客
API接口信息
接口速度
3/5
暂无公开的 API 定价信息。
评测得分
当前尚无可展示的评测数据。
发布机构
Google Deep Mind
查看发布机构详情 模型解读
TranslateGemma 27B 是该系列中参数量最大、性能最强的版本,专为追求极致翻译质量的企业级应用和云端部署而设计。
1. 模型简介
- 发布机构: Google DeepMind
- 发布时间: 2026年1月15日
- 定位: 高精度、多语言通用翻译模型,适用于需要处理复杂语境和细微文化差异的场景。
2. 架构与技术规格
- 模型参数: 约 29 亿 (HuggingFace 标注 29B,对应 27B 命名)。
- 训练数据: 在 43 亿 token 的 SFT 数据和 1000 万 token 的 RL 数据上进行训练。
- 硬件要求: 推荐使用 H100 GPU 或 TPU 进行部署。
3. 核心能力
- 精准翻译: 在处理专业术语、文学作品及长文本时表现出更高的连贯性和准确性。
- 多模态集成: 同样具备图像翻译能力,能够结合视觉上下文提供更准确的译文。
- 提示工程: 官方建议将其设定为“专业翻译员”角色进行 Prompting,以获得最佳的文化适应性翻译。
4. 性能与基准评测
- 基准测试: 在 WMT24++ 等权威测试集中,针对 55 种语言的平均误差率最低,尤其在低资源语言翻译上表现出强大的泛化能力。
5. 访问与许可
- 开源协议: Gemma Terms of Use。
- 部署: 适合通过 Vertex AI 或私有云集群部署服务。
DataLearner 官方微信
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
