DataLearner logoDataLearnerAI
AI Tech Blogs
Leaderboards
Benchmarks
Models
Resources
Tool Directory

加载中...

DataLearner logoDataLearner AI

A knowledge platform focused on LLM benchmarking, datasets, and practical instruction with continuously updated capability maps.

产品

  • Leaderboards
  • 模型对比
  • Datasets

资源

  • Tutorials
  • Editorial
  • Tool directory

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner curates industry data and case studies so researchers, enterprises, and developers can rely on trustworthy intelligence.

隐私政策服务条款
  1. Home/
  2. Blog List/
  3. Blog Detail

重磅!谷歌开源Gemini同源技术大模型Gemma,分别为70亿参数和20亿参数,同等规模参数评测极其优秀!

2024/02/21 22:02:28
2,520 views
GeminiGemmaGoogle开源大模型

DataLearner WeChat

Follow DataLearner WeChat for the latest AI updates

DataLearner 官方微信二维码
Back to Blog List

Related Blogs

大模型新王者!谷歌发布Gemini 3.0 Pro,各方面评测几乎都是第一,全球首个大模型匿名投票得分超1500分的模型,支持100万输入上下文!谷歌发布新一代大模型Gemini 2.5 Flash,成本、速度和性能的最优均衡,同时支持推理和非推理模式,评测结果超Sonnet 3.7Google发布Gemini 2.5 Pro: Gemini系列第一个2.5版本的模型,最高支持200万上下文,全模态输入,推理大模型,LMArena排名第一Google开源第三代Gemma-3系列模型:支持多模态、最多128K输入,其中Gemma 3-27B在大模型匿名竞技场得分超过了Qwen2.5-MaxGoogle发布Gemini 2.0 Pro:MMLU Pro评测超过DeepSeek V3略低于DeepSeek R1,最高上下文长度支持200万tokens!开发者每天免费50次请求!Google Gemini Pro 1.5重大更新:新增音频理解、单次处理任何格式数据、更强大的函数调用和JSON模式,DataLeanrerAI实测音频理解能力优秀,且免费使用!重磅!谷歌宣布发布Gemini 1.5 Pro,距离Gemini发布仅仅一个半月!最高支持1000万上下文长度,GSM8K评测全球第一Google Gemini Pro多模态接口开放!DataLearnerAI第一时间测试Gemini Pro多模态能力,比想象惊喜!谷歌发布号称超过GPT-4V的大模型Gemini:4个版本,最大的Gemini的MMLU得分90.04,首次超过90的大模型Google DeepMind 发布 EmbeddingGemma:面向端侧的多语言开源向量模型(308M),小体量也能打

Hot Blogs

1Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)2回归模型中的交互项简介(Interactions in Regression)3贝塔分布(Beta Distribution)简介及其应用4矩母函数简介(Moment-generating function)5普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程6使用R语言进行K-means聚类并分析结果7深度学习技巧之Early Stopping(早停法)8H5文件简介和使用9手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署10Wishart分布简介

Google Gemini是谷歌最新推出的和OpenAI竞争的大语言模型。尽管Gemini褒贬不一,但是Gemini模型的影响力是巨大的。而现在更加令人激动的是谷歌开源了2个新的不同参数规模的模型,分别是Gemma 7B和Gemma 2B,其技术与Gemini模型一致。但是这两个开源模型完全公开,可以商用授权。

Gemma模型简介

Gemma模型是谷歌开源的大语言模型的名称。目前有2个不同参数规模的4个版本,分别如下:

Gemma版本模型简介DataLearnerAI模型信息卡地址
Gemma-7B70亿参数规模的基础大语言模型https://www.datalearner.com/ai-models/pretrained-models/gemma-7b
Gemma-7B-It70亿参数,指令微调的版本https://www.datalearner.com/ai-models/pretrained-models/gemma-7b-instruct
Gemma-2B20亿参数规模的基础大语言模型https://www.datalearner.com/ai-models/pretrained-models/gemma-2b
Gemma-2B-It20亿参数,指令微调的版本https://www.datalearner.com/ai-models/pretrained-models/gemma-2b-instruct

Gemma系列模型与Gemini的技术同源,具体架构信息如下:

参数规模版本Gemma-2BGemma-7B
d_model20483072
Layers1828
Feedforward hidden dims3276849152
Num heads816
Num KV heads116
Head size256256
Vocab size256128256128

从这个架构可以看出,Gemma模型的词汇表达到了25万!非常高。此外,Gemma还采用了一系列新技术,包括Multi-Query Attention、RoPE Embeddings、GeGLU激活函数以及Normalizer Location等。Gemma 2B模型在2万亿tokens数据集上训练,而Gemma 7B则是在7万亿数据集上训练。数据集主要是英语为主的网络文档、数学数据以及代码数据。但是,与Gemini不同的是,Gemma只是一个语言模型,没有多模态的能力。也没有多语言的能力。但是,两个指令微调版本的Gemma都有做RLHF对齐。

这两个模型的上下文长度都是8K。

Gemma的评测结果:70亿参数MMLU得分最高

谷歌官方宣称Gemma模型达到了同等规模参数最好的语言模型水平,甚至超过了某些参数量更大规模的模型。

下图是DataLearnerAI的大模型评测结果的截图,都是70亿参数规模的模型。

数据来源:https://www.datalearner.com/ai-models/llm-evaluation?modelSize=7b

上图是按照MMLU排序,并且都是70亿参数规模的结果。可以看到Gemma2 7B是MMLU得分最高的。这个分数与马斯克的Grok差不多,也接近Qwen-14B的水平。就变成评测HumanEval来说,Gemma 7B与CodeLlama 7B差不多。

从这个结果看,Gemma是非常优秀的开源领域70亿参数的大模型,综合评测和代码能力水平都是同等规模参数模型最强的。也超过了Mistral 7B的水平。

Gemma的开源情况

Gemma是谷歌开源的模型,是一个完全自定义的开源协议。从协议内容看应该是允许商用授权的。

除了这个商用授权协议外,Google此次开源最大的特点是提供了非常丰富的工具和生态。具体如下:

  • 通过Keras 3.0提供了JAX、PyTorch、TensorFlow推理和微调的工具链,这意味着支持主流的框架进行推理和微调
  • 提供了Google Colab和Kaggle Notebooks的代码示例
  • 支持HuggingFace、MaxText、Nvidia NeMO、TensorRT-LLM等加速框架
  • 对Nvidia的GPU和Google的TPU都有针对性的优化

从这些内容看,本次Google开源的Gemma非常有诚意,不仅是模型能力很强,在生态和社区支持方面也非常好。关于模型具体的代码示例、预训练开源地址可以参考DataLearnerAI的模型信息卡。

Gemma版本模型简介DataLearnerAI模型信息卡地址
Gemma-7B70亿参数规模的基础大语言模型https://www.datalearner.com/ai-models/pretrained-models/gemma-7b
Gemma-7B-It70亿参数,指令微调的版本https://www.datalearner.com/ai-models/pretrained-models/gemma-7b-instruct
Gemma-2B20亿参数规模的基础大语言模型https://www.datalearner.com/ai-models/pretrained-models/gemma-2b
Gemma-2B-It20亿参数,指令微调的版本https://www.datalearner.com/ai-models/pretrained-models/gemma-2b-instruct