加载中...
Qwen1.5-MoE-A2.7B
数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法
阿里巴巴开源的阿里系首个MoE大语言模型,143亿参数模型效果与70亿差不多,但是每次推理只激活27亿参数,可以在手机端运行。
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送