MiniCPM-2B-DPO - MiniCPM-2B-DPO

模型详细情况和参数

MiniCPM-2B-DPO

模型全称
MiniCPM-2B-DPO
模型简称
MiniCPM-2B-DPO
模型类型
指令优化大模型
发布日期
2024-01-30
预训练文件大小
10.9GB
是否支持中文(中文优化)
最高支持的上下文长度
2K
模型参数数量(亿)
24.0
模型代码开源协议
Apache 2.0
预训练结果开源商用情况
OpenBMB通用模型许可协议-来源说明-宣传限制-商业授权 - 免费商用授权
在线演示地址
暂无
DataLearnerAI的模型介绍
基础模型
无基础模型
发布机构

MiniCPM-2B-DPO 简介

MiniCPM-2B-DPO是由面壁智能开源的一个24亿参数规模的大语言模型,是一个参数规模不大的语言模型。但是官方的评测结果中显示,该模型的评测水平超过了很多70亿参数规模的大语言模型,最高与130亿参数的Llama2-13B差不多。


欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送

MiniCPM-2B-DPO所属的领域
自然语言处理

自然语言处理

Natural Language Process

35个资源

MiniCPM-2B-DPO相关的任务
问答系统

问答系统

Question Answering

35个资源