Gemma 1.1-2B-IT
Gemma 1.1-2B - Instruct
模型参数
20.0亿
上下文长度
2K
中文支持
不支持
推理能力
模型基本信息
推理过程
不支持
上下文长度
2K tokens
最大输出长度
暂无数据
模型类型
暂无数据
发布时间
2024-04-06
模型文件大小
4GB
MoE架构
否
总参数 / 激活参数
20.0 亿 / 不涉及
知识截止
暂无数据
推理模式
暂无模式数据
开源和体验地址
官方介绍与博客
官方论文
暂无官方论文
DataLearnerAI博客
暂无介绍博客
API接口信息
接口速度
暂无数据
暂无公开的 API 定价信息。
评测得分
当前尚无可展示的评测数据。
发布机构
Google Research
查看发布机构详情 模型解读
Gemma 1.1-2B - Instruct是Google开源的20亿参数规模的大语言模型,是Gemma-2B模型的小幅升级的版本。Gemma系列包含2个不同参数规模的版本,分别是70亿的Gemma-7B和20亿参数的Gemma-2B。
关于Gemma系列模型的介绍参考: 重磅!谷歌开源Gemini同源技术大模型Gemma,分别为70亿参数和20亿参数,同等规模参数评测极其优秀!
Gemma 1.1-2B是Gemma-2B模型的升级版本,使用了基于人类反馈的强化学习(RLHF)对齐训练:
Gemma 1.1 采用新颖的 RLHF 方法进行训练,在质量、编码能力、事实性、指令遵循和多轮对话质量等方面都有大幅提高。我们还修复了多轮对话中的一个错误,并确保模型的回答不会总是以 "当然 "开头。
Google发布了3个版本的Gemma-1.1-2B模型,分别是指令优化的原始版本、基于PyTorch实现的版本以及1个量化版本:
| Gemma-1.1-2B版本 | 版本简介 | HugggingFace下载地址 |
|---|---|---|
| Gemma-1.1-2B-IT | 指令优化版本,transformers库实现 | https://huggingface.co/google/gemma-1.1-2b-it |
| Gemma-1.1-2B-IT-PyTorch | PyTorch实现的版本 | https://huggingface.co/google/gemma-1.1-2b-it-pytorch |
| Gemma-1.1-2B-IT-GGUF | GGUF量化版本 | https://huggingface.co/google/gemma-1.1-2b-it-GGUF |
DataLearner 官方微信
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
