Gemma 1.1-2B - Instruct
Gemma 1.1-2B - Instruct is an AI model published by Google Research, released on 2024-04-06, for 聊天大模型, with 20.0B parameters, and 2K tokens context length, requiring about 4GB storage, under the Gemma Terms of Use license.
Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology
Gemma 1.1-2B - Instruct是Google开源的20亿参数规模的大语言模型,是Gemma-2B模型的小幅升级的版本。Gemma系列包含2个不同参数规模的版本,分别是70亿的Gemma-7B和20亿参数的Gemma-2B。
关于Gemma系列模型的介绍参考: 重磅!谷歌开源Gemini同源技术大模型Gemma,分别为70亿参数和20亿参数,同等规模参数评测极其优秀!
Gemma 1.1-2B是Gemma-2B模型的升级版本,使用了基于人类反馈的强化学习(RLHF)对齐训练:
Gemma 1.1 采用新颖的 RLHF 方法进行训练,在质量、编码能力、事实性、指令遵循和多轮对话质量等方面都有大幅提高。我们还修复了多轮对话中的一个错误,并确保模型的回答不会总是以 "当然 "开头。
Google发布了3个版本的Gemma-1.1-2B模型,分别是指令优化的原始版本、基于PyTorch实现的版本以及1个量化版本:
| Gemma-1.1-2B版本 | 版本简介 | HugggingFace下载地址 |
|---|---|---|
| Gemma-1.1-2B-IT | 指令优化版本,transformers库实现 | https://huggingface.co/google/gemma-1.1-2b-it |
| Gemma-1.1-2B-IT-PyTorch | PyTorch实现的版本 | https://huggingface.co/google/gemma-1.1-2b-it-pytorch |
| Gemma-1.1-2B-IT-GGUF | GGUF量化版本 | https://huggingface.co/google/gemma-1.1-2b-it-GGUF |
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
