MiniCPM-1B-SFT - MiniCPM-1B-SFT

模型详细情况和参数

MiniCPM-1B-SFT

模型全称
MiniCPM-1B-SFT
模型简称
MiniCPM-1B-SFT
模型类型
基础大模型
发布日期
2024-04-10
预训练文件大小
2.72GB
是否支持中文(中文优化)
最高支持的上下文长度
4K
模型参数数量(亿)
12.0
模型代码开源协议
Apache 2.0
预训练结果开源商用情况
OpenBMB通用模型许可协议-来源说明-宣传限制-商业授权 - 免费商用授权
在线演示地址
暂无
DataLearnerAI的模型介绍
官方博客论文
暂无
基础模型
无基础模型
发布机构

MiniCPM-1B-SFT 简介

面壁智能开源的12亿参数规模的大语言模型,官方宣称其评测结果与70亿参数规模的大模型接近。


MiniCPM系列模型的参数规模都不超过30亿(不包含MiniCPM-8×2B-MoE,这个136亿,参考: https://www.datalearner.com/ai-models/pretrained-models/MiniCPM-MoE-8x2B ),因此推理显存要求很低,微调也仅需一个消费级显卡即可:

  • 高效参数微调:一张1080/2080,通常是12GB显存左右;
  • 全参数微调:一张3090/4090,即24GB显存左右;

欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送

MiniCPM-1B-SFT所属的领域
自然语言处理

自然语言处理

Natural Language Process

35个资源

MiniCPM-1B-SFT相关的任务
问答系统

问答系统

Question Answering

35个资源