加载中...
加载中...
MiniCPM-1B-SFT
数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法
面壁智能开源的12亿参数规模的大语言模型,官方宣称其评测结果与70亿参数规模的大模型接近。
MiniCPM系列模型的参数规模都不超过30亿(不包含MiniCPM-8×2B-MoE,这个136亿,参考: https://www.datalearner.com/ai-models/pretrained-models/MiniCPM-MoE-8x2B ),因此推理显存要求很低,微调也仅需一个消费级显卡即可:
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
