Mixtral-8×22B-MoE
Mixtral-8×22B-MoE 是由 MistralAI 发布的 AI 模型,发布时间为 2024-04-17,定位为 基础大模型,参数规模约为 1410.0B,上下文长度为 64K,模型文件大小约 262GB,采用 Apache 2.0 许可。
数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法
Mixtral-8×7B-MoE是由MistralAI开源的一个MoE架构大语言模型,因为它良好的开源协议和非常好的性能获得了广泛的关注。就在刚才,Mixtral-8×7B-MoE的继任者出现,MistralAI开源了全新的Mixtral-8×22B-MoE大模型。
目前该模型依然是以磁力链接让大家下载,没有提供任何新的消息,不过根据磁链文件信息,有几个简单的信息:
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

暂时没有为该模型整理的相关对比页面。
想自定义其他组合?打开对比工具