MI

MiniCPM-1B-SFT

MiniCPM-1B-SFT

发布时间: 2024-04-10427
模型参数
12.0亿
上下文长度
4K
中文支持
支持
推理能力

模型基本信息

推理过程
不支持
上下文长度
4K tokens
最大输出长度
暂无数据
模型类型
基础大模型
发布时间
2024-04-10
模型文件大小
2.72GB
MoE架构
总参数 / 激活参数
12.0 亿 / 不涉及
知识截止
暂无数据
推理模式
暂无模式数据

开源和体验地址

代码开源状态
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
暂无官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度
暂无数据
暂无公开的 API 定价信息。

评测得分

当前尚无可展示的评测数据。

发布机构

模型解读

面壁智能开源的12亿参数规模的大语言模型,官方宣称其评测结果与70亿参数规模的大模型接近。


MiniCPM系列模型的参数规模都不超过30亿(不包含MiniCPM-8×2B-MoE,这个136亿,参考: https://www.datalearner.com/ai-models/pretrained-models/MiniCPM-MoE-8x2B ),因此推理显存要求很低,微调也仅需一个消费级显卡即可:

  • 高效参数微调:一张1080/2080,通常是12GB显存左右;
  • 全参数微调:一张3090/4090,即24GB显存左右;

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码