DataLearner 标志DataLearnerAI
最新AI资讯
大模型评测
大模型列表
大模型对比
资源中心
AI工具导航

加载中...

DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
  1. 首页/
  2. 博客列表/
  3. 博客详情

MistralAI开源240亿参数的多模态大模型Mistral-Small-3.1-24B:评测结果与GPT-4o-mini与Gemma 3 27B有来有回,开源且免费商用,支持24种语言

2025/03/18 16:41:50
742 阅读
MistralAIMistralSmall3.1多模态大模型开源大模型

欧洲大模型之光MistralAI开源了2个全新的多模态大模型,即Mistral-Small-3.1-24B基座版本和指令微调版本。这两个大模型均以Apache2.0协议开源,因此可以完全免费商用。而官方也给出了这个模型在多个评测集上的效果,高于GPT-4o-mini和Gemma 3 27B。因为其参数规模较小,推理速度可以达到每秒150个tokens,同时支持多种语言,是一个非常值得关注的小而美的多模态大模型。

Mistral Small 3.1介绍及其评测结果
Mistral Small 3.1介绍及其评测结果
  • Mistral Small 3.1介绍
  • Mistral-Small-3.1-24B的关键技术信息
  • Mistral-Small-3.1-24B评测结果
  • Mistral-Small-3.1-24B模型的开源地址和总结

Mistral Small 3.1介绍

MistralAI是法国的一家大模型初创企业,MistralAI一直秉持着开源的精神,在推出各种自家大模型服务的同时也一直在开源不同的模型。2023年12月8日,该公司在其推特官方账号上公布了一个8×7B的Mixture of Experts模型的下载链接,几乎是当时最好的MoE的开源实现,引起了广泛的关注(参考此前DataLearnerAI关于Mistral 8*7B的介绍:https://www.datalearner.com/blog/1051702125462162 )。

本次发布的Mistral Small 3.1模型是其2025年1月底发布的Mistral Small 3基础上发展而来的更强的多模态模型。分为两个版本,即没有任何微调的预训练基座版本Mistral-Small-3.1-24B-Base-2503以及经过指令微调的Mistral-Small-3.1-24B-Instruct-2503,前者可以用于其它领域的微调,而后者则可以直接用来对话使用。

Mistral-Small-3.1-24B的关键技术信息

MistralAI以Apache2.0协议开源了Mistral-Small-3.1-24B模型。其主要的技术信息总结如下:

  • Mistral-Small-3.1-24B的架构:构建为一个具有宽浅设计的 transformer 模型,与典型的 LLM 相比,层数较少但中间尺寸较大。这种结构在保持高性能的同时降低了延迟。
  • Mistral-Small-3.1-24B的分词器:使用 Tekken 分词器,词汇量为 131k,增强了处理多样化语言输入的能力。
  • Mistral-Small-3.1-24B的视觉能力:3.1 更新引入了最先进的视觉理解,允许模型分析图像并将视觉数据与文本响应集成。
  • Mistral-Small-3.1-24B的部署:足够轻量,可以在单个 NVIDIA RTX 4090 GPU(在 bf16 或 fp16 中需要约 55 GB GPU RAM)或量化后在 32GB RAM 的 MacBook 上运行,使其可用于本地推理。

Mistral-Small-3.1-24B非常强大,支持文本和图像处理,能够执行视觉理解和基于图像的推理等任务,同时支持传统的基于文本的操作。240 亿参数规模,在能力和资源效率之间取得了平衡。Mistral-Small-3.1-24B的上下文长度最高支持128K,应该说是当前模型最主流的一类了。

此外,Mistral-Small-3.1-24B支持24种语言,包括英语、法语、德语、西班牙语、意大利语、中文、日语、韩语、葡萄牙语、荷兰语、波兰语等,适合欧洲人体质,当然中文也可以,这也是MistralAI家模型一直以来的优良传统(不像Llama系列,不知道是因为不服还是啥原因,始终不愿意用中文的语料,不愿意支持中文)。

Mistral-Small-3.1-24B评测结果

官方一个给出了Mistral-Small-3.1-24B与主流同等参数规模模型的对比结果,DataLearnerAI在此基础上增加了QwQ-32B以及Qwen2.5-32B的评测,如下图所示:

Mistral-Small-3.1-24B与GPT-4o-mini、Gemma 3 27B等模型在MMLU等上的评测结果
Mistral-Small-3.1-24B与GPT-4o-mini、Gemma 3 27B等模型在MMLU等上的评测结果
Mistral-Small-3.1-24B与GPT-4o-mini、Gemma 3 27B等模型在MMLU等上的评测结果
数据来源DataLearnerAI大模型评测对比工具:https://www.datalearner.com/ai-models/ai-benchmarks-tests/compare-result?benchmarkInputString>数据来源DataLearnerAI大模型评测对比工具:https://www.datalearner.com/ai-models/ai-benchmarks-tests/compare-result?benchmarkInputString=15,16,18,19,27,32,33,41&modelInputString=538,530,450,471,525,463,523

从以上对比可以看到,Mistral-Small-3.1-24B在多项主流评测中展现了较强的综合能力,尤其在代码生成和知识广度上表现亮眼,但在数学逻辑和复杂推理任务中稍逊于部分产品,但是考虑到这是完全开源且只有240亿参数的模型来说,非常够了。在上述8项测试中,Mistral-Small-3.1-24B有3项都是第一,剩余几个评测效果也不错(除了数学)。

在HumanEval测试(代码生成任务)中,Mistral-Small以88.41分位列所有模型之首,甚至小幅超越GPT-4o mini(87.20)和Claude 3.5 Haiku(88.10)。这表明其在理解代码需求、生成高效准确的代码片段方面表现卓越,非常适合开发者辅助工具或自动化编程场景。

但是在MATH测试(数学问题解决)中,Mistral-Small仅得69.30分,远低于Gemma 3的89.00分,甚至略逊于GPT-4o mini(70.20)。这表明模型对复杂数学逻辑和符号运算的处理能力较弱。

Mistral-Small-3.1-24B是一款以代码生成和知识广度见长的模型,尤其适合编程辅助与通用智能场景。若能补足数学逻辑与复杂推理的短板,其综合竞争力有望进一步提升,成为多领域应用的优选工具。

Mistral-Small-3.1-24B模型的开源地址和总结

Mistral Small 3.1 是一款在 Apache 2.0 许可证下发布的开源 AI 模型,它支持欧洲、东亚和中东等多种语言,在多语言任务中表现优异。

此外,大家需要注意,该模型提供低延迟函数调用和自动化工作流程支持,非常适合构建智能代理和虚拟助手。它还具备多模态理解和长上下文处理能力,应该是GPT-4o mini和Gemma3 27B之外的优秀选择。此外,MistralAI还提供了预训练基座版本的模型,适合大家自己用来在特定领域微调,这在最近的模型开源中也非常难得。

关于Mistral-Small-3.1-24B的开源HuggingFace地址以及其它信息请参考DataLearnerAI的模型信息卡。

Mistral-Small-3.1-24B-Base-2503(预训练基座版):https://www.datalearner.com/ai-models/pretrained-models/Mistral-Small-3_1-24B-Base-2503 Mistral-Small-3.1-24B-Instruct-2503(指令微调版本):https://www.datalearner.com/ai-models/pretrained-models/Mistral-Small-3_1-24B-Instruct-2503

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码
返回博客列表

相关博客

  • MistralAI发布全新编程大模型:24B开源Devstral Small 1.1在SWE-Bench Verified评分超过旧版DeepSeek R1,编程大模型新的替代
  • Mistral AI开源全新的120亿参数的Mistral NeMo模型,Mistral 7B模型的继任者!完全免费开源!中文能力大幅增强!
  • MistralAI正式官宣开源全球最大的混合专家大模型Mixtral 8x22B,官方模型上架HuggingFace,包含指令微调后的版本!
  • Mixtral-8×7B-MoE模型升级新版本,MistralAI开源全球最大混合专家模型Mixtral-8×22B-MoE
  • 73亿参数顶级开源模型Mistral-7B升级到v0.2版本,性能与上下文长度均有增强。
  • MistralAI可能即将发布新的大语言模型,Mistral Next悄悄登场Chat Arena!
  • MistralAI发布了Mixtral 8×7B MoE模型的论文,更详细的参数和对比结果~
  • 除了Mistral-7B-MoE外,MistralAI还有更强大的模型,未宣布的Mistral-medium比混合专家模型更强!

热门博客

  • 1Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
  • 2回归模型中的交互项简介(Interactions in Regression)
  • 3贝塔分布(Beta Distribution)简介及其应用
  • 4矩母函数简介(Moment-generating function)
  • 5普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
  • 6使用R语言进行K-means聚类并分析结果
  • 7深度学习技巧之Early Stopping(早停法)
  • 8手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署