MiniCPM-MoE-8x2B - MiniCPM-MoE-8x2B

模型详细情况和参数

MiniCPM-MoE-8x2B

模型全称
MiniCPM-MoE-8x2B
模型简称
MiniCPM-MoE-8x2B
模型类型
基础大模型
发布日期
2024-04-10
预训练文件大小
27.7GB
是否支持中文(中文优化)
最高支持的上下文长度
2K
模型参数数量(亿)
136.0
模型代码开源协议
Apache 2.0
预训练结果开源商用情况
OpenBMB通用模型许可协议-来源说明-宣传限制-商业授权 - 免费商用授权
在线演示地址
暂无
DataLearnerAI的模型介绍
基础模型
无基础模型
发布机构

MiniCPM-MoE-8x2B 简介

MiniCPM-MoE-8x2B是一个基于Mixture-of-Experts(MoE)架构的大型语言模型,包含8个专家模块。它基于先前的MiniCPM模型,利用了稀疏升循环(sparse upcycling)技术进行初始化。在推理时,每个token会激活2个专家模块,导致约40亿参数被激活。总的非嵌入参数量达到136亿。


该模型采用了路由机制:

使用softmax选择top2专家输出的加权和作为该层输出引入load balancing loss防止训练塌陷,权重0.01


评估结果:

在多个基准测试中优于7B模型,如Mistral、Gemma等进行了专家冗余和专家专长分析。

欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送

MiniCPM-MoE-8x2B所属的领域
自然语言处理

自然语言处理

Natural Language Process

35个资源

MiniCPM-MoE-8x2B相关的任务
问答系统

问答系统

Question Answering

35个资源