DataLearner 标志DataLearnerAI
AI技术博客
大模型评测排行
大模型评测基准
AI大模型大全
AI资源仓库
AI工具导航

加载中...

DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
目录
目录
  1. 首页/
  2. 博客列表/
  3. 博客详情

MistralAI发布全新编程大模型:24B开源Devstral Small 1.1在SWE-Bench Verified评分超过旧版DeepSeek R1,编程大模型新的替代

2025/07/11 20:06:06
378 阅读
DevstralMediumDevstralSmallMistralAI编程大模型领域大模型

编程大模型一直是人工智能领域中进展最快的方向之一。因为编程能力更强的模型,通常在逻辑思维、工具调用上也有更好的表现,在很多领域,特别是Agent领域有很大的应用价值。今天,法国人工智能明星公司MistralAI发布了2个全新的编程大模型,分别是Devstral Medium和Devstral Small 1.1,后者是一个开源的240亿参数的编程大模型。

MistralAI发布全新编程大模型:24B开源Devstral Small 1.1在SWE-Bench Verified评分超过旧版DeepSeek R1,编程大模型新的替代
MistralAI发布全新编程大模型:24B开源Devstral Small 1.1在SWE-Bench Verified评分超过旧版DeepSeek R1,编程大模型新的替代
  • Devstral Small 1.1:竞争力极强的开源新选择
  • Devstral Medium:性能卓越的闭源模型,价格优势显著
  • Devstral模型总结

Devstral Small 1.1:竞争力极强的开源新选择

Devstral Small 1.1是一个开源的、参数量为240亿、针对编程任务优化的的大模型。在2024年5月,MistralAI已经开源了Devstral Small 1.0版本,仅2个月后的今天,Devstral Small 1.1就迎来了更新。相较于1.0版本,Devstral Small 1.1在SWE-Bench Verified得分提升了约14.5%,可以说进步非常明显。

SWE-Bench是一个包含2294个任务实例的编程评测基准,每个任务都来源于12个流行的开源Python代码库,涉及真实的GitHub Issue和Pull Request (PR)。它非常接近真实世界的软件工程问题,因此难度非常高。SWE-bench Verified是对原始SWE-bench测试集的优化版本,通过人工验证和改进,解决了原测试集中存在的一些关键问题。因此,这一评测对于评估大模型解决真实编程任务的水平非常有参考价值。

Devstral Small 1.1模型与其它模型的对比
Devstral Small 1.1模型与其它模型的对比
数据来源:https://www.datalearner.com/ai-models/ai-benchmarks-tests/compare-result?benchmarkInputString=35&modelInputString=623,622,492,553

本次MistralAI开源的Devstral Small 1.1得分高达53.6,仅比GPT-4.1低1分,但超过了旧版本的DeepSeek Coder R1,可以说表现非常惊艳。而且,该模型完全开源(采用Apache 2.0协议),并提供免费商用授权。

Devstral Medium:性能卓越的闭源模型,价格优势显著

Devstral Medium是Devstral Small的升级版。与2024年5月发布的Devstral Small 1.0模型不同,2024年7月的Devstral Medium是首次发布,其SWE-Bench Verified得分达到了61.6,进步非常明显!这个成绩已经超过了Gemini 2.5 Pro。

Destral Medium的SWE Bench Verified评分
Destral Medium的SWE Bench Verified评分
数据来源DataLearnerAI的SWE-Bench Verified排行榜:https://www.datalearner.com/ai-models/llm-benchmark-tests/35

不过,Devstral Medium是一个闭源模型,MistralAI提供了官方API,也可以帮助企业进行私有化部署 (On-Premises)。值得注意的是,它的价格只有Gemini 2.5 Pro的1/4,而其编程能力却可与Gemini 2.5 Pro相媲美。

这三个模型的对比结果可以参考DataLearnerAI的模型对比:https://www.datalearner.com/ai-models/pretrained-models/compare/details?modelIds=622,621,623

Devstral模型总结

大模型在编程领域的竞争日趋激烈。虽然头部企业的通用大模型十分强大,但像MistralAI这样提供性能接近、成本更低的专业编程模型,无疑为许多应用开发者提供了极具吸引力的替代方案。

关于Devstral Medium和Devstral Small模型更多的信息,可参考DataLearnerAI的模型信息卡地址。

Devstral Medium:https://www.datalearner.com/ai-models/pretrained-models/Devstral-Medium Devstral Small 1.1:https://www.datalearner.com/ai-models/pretrained-models/Devstral-Small-2507 Devstral Small 1.0:https://www.datalearner.com/ai-models/pretrained-models/Devstral-Small-2505

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码
返回博客列表

相关博客

  • MistralAI开源240亿参数的多模态大模型Mistral-Small-3.1-24B:评测结果与GPT-4o-mini与Gemma 3 27B有来有回,开源且免费商用,支持24种语言
  • Mistral AI开源全新的120亿参数的Mistral NeMo模型,Mistral 7B模型的继任者!完全免费开源!中文能力大幅增强!
  • MistralAI正式官宣开源全球最大的混合专家大模型Mixtral 8x22B,官方模型上架HuggingFace,包含指令微调后的版本!
  • Mixtral-8×7B-MoE模型升级新版本,MistralAI开源全球最大混合专家模型Mixtral-8×22B-MoE
  • 73亿参数顶级开源模型Mistral-7B升级到v0.2版本,性能与上下文长度均有增强。
  • MistralAI可能即将发布新的大语言模型,Mistral Next悄悄登场Chat Arena!
  • MistralAI发布了Mixtral 8×7B MoE模型的论文,更详细的参数和对比结果~
  • 除了Mistral-7B-MoE外,MistralAI还有更强大的模型,未宣布的Mistral-medium比混合专家模型更强!

热门博客

  • 1Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
  • 2回归模型中的交互项简介(Interactions in Regression)
  • 3贝塔分布(Beta Distribution)简介及其应用
  • 4矩母函数简介(Moment-generating function)
  • 5普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
  • 6使用R语言进行K-means聚类并分析结果
  • 7深度学习技巧之Early Stopping(早停法)
  • 8手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署