DataLearner logoDataLearnerAI
Latest AI Insights
Model Evaluations
Model Directory
Model Comparison
Resource Center
Tools
LanguageEnglish

加载中...

DataLearner logoDataLearner AI

A knowledge platform focused on LLM benchmarking, datasets, and practical instruction with continuously updated capability maps.

Products

  • Leaderboards
  • Model comparison
  • Datasets

Resources

  • Tutorials
  • Editorial
  • Tool directory

Company

  • About
  • Privacy policy
  • Data methodology
  • Contact

© 2026 DataLearner AI. DataLearner curates industry data and case studies so researchers, enterprises, and developers can rely on trustworthy intelligence.

Privacy policyTerms of service
Page navigation
目录
Model catalogGemma 3 - 27B (IT)
GE

Gemma 3 - 27B (IT)

Gemma 3 - 27B (IT)

Release date: 2025-03-12更新于: 2025-03-12 22:17:451,348
Live demoGitHubHugging FaceCompare
Parameters
270.0亿
Context length
128K
Chinese support
Supported
Reasoning ability

Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology

Gemma 3 - 27B (IT)

Model basics

Reasoning traces
Not supported
Thinking modes
Thinking modes not supported
Context length
128K tokens
Max output length
No data
Model type
聊天大模型
Release date
2025-03-12
Model file size
54.8GB
MoE architecture
No
Total params / Active params
270.0B / N/A
Knowledge cutoff
No data
Gemma 3 - 27B (IT)

Open source & experience

Code license
Gemma Terms of Use
Weights license
Gemma Terms of Use- 免费商用授权
GitHub repo
GitHub link unavailable
Hugging Face
https://huggingface.co/google/gemma-3-27b-it
Live demo
No live demo
Gemma 3 - 27B (IT)

Official resources

Paper
Gemma 3 Technical Report
DataLearnerAI blog
Google开源第三代Gemma-3系列模型:支持多模态、最多128K输入,其中Gemma 3-27B在大模型匿名竞技场得分超过了Qwen2.5-Max
Gemma 3 - 27B (IT)

API details

API speed
No data
No public API pricing yet.
Gemma 3 - 27B (IT)

Benchmark Results

Gemma 3 - 27B (IT) currently shows benchmark results led by MATH (6 / 41, score 89), HumanEval (18 / 37, score 87.80), MBPP (16 / 27, score 74.40). This page also consolidates core specs, context limits, and API pricing so you can evaluate the model from benchmark results and deployment constraints together.

Thinking
All modesNormal

综合评估

4 evaluations
Benchmark / mode
Score
Rank/total
MMLU
Off
76.90
52 / 62
MMLU Pro
Off
67.50
84 / 114
GPQA Diamond
Off
42.40
143 / 160
GPQA
Off
36.83
12 / 13

编程与软件工程

3 evaluations
Benchmark / mode
Score
Rank/total
HumanEval
Off
87.80
18 / 37
MBPP
Off
74.40
16 / 27
LiveCodeBench
Off
29.70
102 / 106

数学推理

2 evaluations
Benchmark / mode
Score
Rank/total
MATH
Off
89
6 / 41
AIME 2024
Off
25.30
57 / 62

常识问答

1 evaluations
Benchmark / mode
Score
Rank/total
SimpleQA
Off
10
40 / 45
View benchmark analysisCompare with other models
Gemma 3 - 27B (IT)

Publisher

Google Deep Mind
Google Deep Mind
View publisher details
Gemma 3 - 27B (IT)

Model Overview

Gemma 3 - 27B Instruct是Google的第三代Gemma大模型,27亿参数,指令优化版本。Gemma系列是Google开源的系列大模型,基座模型为Google的Gemini,Gemini是闭源版本。Gemma 3 - 27B Instruct在2025年3月12日出现在Google AI Studio上,开发者可以免费使用。


该模型最多支持8K的输出,输入准确来说131072个tokens。


关于Gemma开源系列模型介绍: https://www.datalearner.com/blog/1051708523708257 


Gemma3-27B 是 Google DeepMind 在 Gemma 3 系列中规模最大、性能最强的版本。相比 12B 版本,它在复杂任务上的表现更为出色,并在多个基准测试中达到或接近 Gemini 1.5 Pro 的水平。该模型支持 128K tokens 长上下文,配备 417M 参数的视觉编码器,在文本生成、代码理解、多模态任务等方面均表现优异。

模型架构与设计

Gemma3-27B 采用 解码器 Transformer 架构,结合 Grouped-Query Attention (GQA) 以优化计算效率,并通过 5:1 的局部/全局注意力交替 机制降低 KV 缓存占用,使其在长文本推理方面具备显著优势。同时,它集成了 SigLIP 视觉编码器,支持 OCR、文档理解等任务。

训练细节

该模型在 TPUv5p 平台 训练,采用 6144 个 TPU,24 数据切分、8 序列切分、32 副本。使用 14T tokens 进行训练,并通过 知识蒸馏 提高性能。此外,后训练阶段采用强化学习优化数学、推理、指令跟随等能力,使其在各类任务上均表现出色。

参数配置

模型版本视觉编码器参数嵌入参数非嵌入参数上下文长度
Gemma3‑12B417M1012M10759M128K tokens
Gemma3‑27B417M1416M25600M128K tokens

基准测试表现

Gemma3-27B 在多个评测中均取得了优异的成绩,接近甚至超越部分封闭大模型,特别是在 MMLU、数学推理、代码生成等方面。

评测基准Gemma3-4BGemma3-12BGemma3-27BGemini 1.5 Pro
MMLU-Pro43.660.667.579.1
LiveCodeBench12.624.629.736.0
Bird-SQL36.347.954.459.3
GPQA Diamond30.840.942.464.7
SimpleQA4.06.310.044.3
MATH75.683.889.091.8

Gemma3-27B 在 LMSYS Chatbot Arena 评测中的排名

在 LMSYS Chatbot Arena 的人类评测中,Gemma3-27B-IT 获得 1338 Elo,位列 前 10,超过 DeepSeek-V3、LLaMA 3 70B、Qwen2.5-70B 等大规模模型,仅次于封闭大模型 GPT-4.5、Gemini-2.0-Pro 等。

排名模型名称Elo 分数参数规模
1Grok-3-Preview-02-241412-
1GPT-4.5-Preview1411-
3Gemini-2.0-Pro-Exp1380-
6DeepSeek-R11363671B/37B
9Gemma3-27B-IT133827B
14Claude 3.7 Sonnet1309-
18Gemini-1.5-Pro-0021302-

模型特点

  • 长文本理解:支持 128K tokens 上下文,在复杂推理任务中表现稳定。
  • 强大的多模态能力:集成视觉编码器,支持 OCR、文档理解等任务。
  • 接近封闭大模型的性能:在多个基准测试中,表现接近 Gemini 1.5 Pro,同时在 LMSYS 评测中位列开源模型前列。

总结

Gemma3-27B 是 Google DeepMind 迄今最强大的开源模型,在多个评测中接近封闭大模型,适用于复杂文本推理、代码生成、多模态任务等高端应用。对于需要最先进 LLM 性能的研究者和开发者来说,它是当前最值得关注的开源选择之一。

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码