加载中...
Qwen2-57B-A14B
数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法
阿里巴巴开源的第二代通义千问系列大模型的混合专家(Mixture of Experts,MoE)版本,总参数规模570亿,推理时使用140亿,在各项评测任务中都超过了当前主流的MoE开源模型。
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送