DataLearner 标志DataLearnerAI
最新AI资讯
大模型评测
大模型列表
大模型对比
资源中心
AI工具导航

加载中...

DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
  1. 首页/
  2. 博客列表/
  3. 博客详情

Mixtral-8×7B-MoE模型升级新版本,MistralAI开源全球最大混合专家模型Mixtral-8×22B-MoE

2024/04/10 11:07:07
805 阅读
MistralAIMixtral-8×22B-MoEMixtral-8×7B-MoE

Mixtral-8×7B-MoE是由MistralAI开源的一个MoE架构大语言模型,因为它良好的开源协议和非常好的性能获得了广泛的关注。就在刚才,Mixtral-8×7B-MoE的继任者出现,MistralAI开源了全新的Mixtral-8×22B-MoE大模型。

目前该模型依然是以磁力链接让大家下载,没有提供任何新的消息,不过根据磁链文件信息,有几个简单的信息:

  1. Mixtral-8×22B-MoE依然是8个专家组成的混合专家大模型;
  2. 每个专家参数规模220亿,是原来70亿参数的3倍,因此总的参数量达到了1760亿!
  3. 如果依然是每次激活2个专家,这意味着每次推理的参数规模是440亿,比此前120亿参数规模大幅增加,有理由相信模型能力更强!
  4. Mixtral-8×7B-MoE模型的输入是32K,而这个模型的配置文件显示,上下文输入达到了64K!上下文长度翻倍!
  5. 根据这个参数估计,Mixtral-8×22B-MoE模型推理半精度的显存需要350GB!成本非常高!但是按照下载链接的物理文件达到262GB的话,应该是不到300G显存即可!

关于Mixtral-8×22B-MoE信息关注DataLearnerAI的模型信息卡:https://www.datalearner.com/ai-models/pretrained-models/Mixtral-8%C3%9722B-MoE

也有网友猜测,目前MistralAI提供的收费模型与开源模型有如下对应关系: Mistral Tiny - Mistral 7B Mistral Small - Mixtral-8×7B-MoE Mistral Medium - Mixtral-8×22B-MoE Mistral Large - ?

Mistral Large是MistralAI提供的闭源模型,在各大评测效果都很好。如果按照这个趋势,希望未来能有Mistral Large模型开源!

关于Mixtral-8×22B-MoE其它信息我们保持关注,Mixtral-8×7B-MoE已经是开源领域最强模型之一,那么有理由相信Mixtral-8×22B-MoE应该会达到开源模型的新高度!与当前最强开源模型Command R+相比,希望能有突破,毕竟虽然Command R+虽然不错,但是不可商用。而Mixtral-8×22B-MoE应该是可以免费商用授权的。

关于Mixtral-8×7B-MoE参考:除了Mistral-7B-MoE外,MistralAI还有更强大的模型,未宣布的Mistral-medium比混合专家模型更强!

关于Command R+模型介绍参考:开源模型进展迅猛!最新开源不可商用模型Command R+在大模型匿名投票得分上已经超过GPT-4-Turbo!

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码
返回博客列表

相关博客

  • MistralAI发布全新编程大模型:24B开源Devstral Small 1.1在SWE-Bench Verified评分超过旧版DeepSeek R1,编程大模型新的替代
  • MistralAI开源240亿参数的多模态大模型Mistral-Small-3.1-24B:评测结果与GPT-4o-mini与Gemma 3 27B有来有回,开源且免费商用,支持24种语言
  • Mistral AI开源全新的120亿参数的Mistral NeMo模型,Mistral 7B模型的继任者!完全免费开源!中文能力大幅增强!
  • MistralAI正式官宣开源全球最大的混合专家大模型Mixtral 8x22B,官方模型上架HuggingFace,包含指令微调后的版本!
  • 73亿参数顶级开源模型Mistral-7B升级到v0.2版本,性能与上下文长度均有增强。
  • MistralAI可能即将发布新的大语言模型,Mistral Next悄悄登场Chat Arena!
  • MistralAI发布了Mixtral 8×7B MoE模型的论文,更详细的参数和对比结果~
  • 除了Mistral-7B-MoE外,MistralAI还有更强大的模型,未宣布的Mistral-medium比混合专家模型更强!

热门博客

  • 1Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
  • 2回归模型中的交互项简介(Interactions in Regression)
  • 3贝塔分布(Beta Distribution)简介及其应用
  • 4矩母函数简介(Moment-generating function)
  • 5普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
  • 6使用R语言进行K-means聚类并分析结果
  • 7深度学习技巧之Early Stopping(早停法)
  • 8手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署