DataLearner 标志DataLearnerAI
AI技术博客
大模型评测排行
大模型评测基准
AI大模型大全
AI资源仓库
AI工具导航

加载中...

DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
页面导航
目录
大模型列表MiniCPM-2B-DPO
MI

MiniCPM-2B-DPO

MiniCPM-2B-DPO

发布时间: 2024-01-30更新于: 2024-04-08 20:05:29495
在线体验GitHubHugging Face
模型参数
24.0亿
上下文长度
2K
中文支持
支持
推理能力

数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法

模型基本信息

推理过程
不支持
上下文长度
2K tokens
最大输出长度
暂无数据
模型类型
聊天大模型
发布时间
2024-01-30
模型文件大小
10.9GB
MoE架构
否
总参数 / 激活参数
24.0 亿 / 不涉及
知识截止
暂无数据
推理模式
暂无模式数据

开源和体验地址

代码开源状态
Apache 2.0
预训练权重开源
OpenBMB通用模型许可协议-来源说明-宣传限制-商业授权- 免费商用授权
GitHub 源码
https://github.com/OpenBMB/MiniCPM
Hugging Face
https://huggingface.co/openbmb/MiniCPM-2B-dpo-fp32
在线体验
https://www.datalearner.com/llm-tutorials/pretrained-model-tutorials/how-to-deploy-minicpm-2b-pretrained-large-language-model

官方介绍与博客

官方论文
MiniCPM: Unveiling the Potential of End-side Large Language Models
DataLearnerAI博客
面壁智能开源迄今位置最强的20亿参数规模的大语言模型:MiniCPM-20B,评测结果超过阿里巴巴Qwen-1.8B,多项评测结果接近GPT-3和众多70亿参数规模大模型

API接口信息

接口速度
暂无数据
暂无公开的 API 定价信息。

评测得分

当前尚无可展示的评测数据。

发布机构

面壁智能
面壁智能
查看发布机构详情

模型解读

MiniCPM-2B-DPO是由面壁智能开源的一个24亿参数规模的大语言模型,是一个参数规模不大的语言模型。但是官方的评测结果中显示,该模型的评测水平超过了很多70亿参数规模的大语言模型,最高与130亿参数的Llama2-13B差不多。


DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码