DataLearner 标志DataLearnerAI
最新AI资讯
大模型评测
大模型列表
大模型对比
资源中心
AI工具导航

加载中...

DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
  1. 首页/
  2. 博客列表/
  3. 博客详情

重磅!阿里开源第三代千问大模型:Qwen3系列,最小仅6亿参数规模,最大2350亿参数规模大模型!可以根据问题难度自动选择是否带思考过程的大模型,评测超DeepSeek-R1和OpenAI o3

2025/04/29 08:59:57
1,552 阅读
Qwen3Qwen3-0.6BQwen3-30B-A3B千问大模型阿里巴巴

阿里巴巴刚刚开源了第三代千问大模型,Qwen3系列包含了8个不同参数规模的大模型,最大达到2350亿参数规模,最小仅6亿参数规模。本次发布的Qwen3系列是推理大模型和常规的大模型混合版本,即Qwen3可以根据输入问题的情况自动选择是否进行推理。

Qwen3发布
Qwen3发布
  • Qwen3系列大模型介绍
  • Qwen3系列大模型的评测结果
  • Qwen3的训练细节和开源情况

Qwen3系列大模型介绍

本次阿里开源的Qwen3系列大模型共包含8个不同参数规模的大模型,其中有6个是dense(稠密)模型,还有2个混合专家架构(MoE)大模型。

Qwen3系列大模型最大的特点是一个模型支持推理和非推理2种模式进行使用。可以通过enable_thinking参数进行控制(Hugging Face transformers框架)。也就是说,对于数学、编程等需要强逻辑推理的问题来说,我们可以启用思考模式,对于总结摘要等不需要思维链的推理可以使用非推理模式加快推理速度。

此外,Qwen3系列模型在100多种语言上进行了预训练,因此支持全球100+语种,可以说非常强大。

稠密模型最小的是6亿参数的Qwen3-0.6B,非常小巧,量化后0.6G显存即可运行,还有一个1.7亿参数规模的Qwen3-1.7B和4亿参数的Qwen3-4B模型,这三个模型都是可以在移动端运行的,上下文长度32K。

此外,还有Qwen3-8B、Qwen3-14B和Qwen3-32B三个稠密模型,上下文长度是128K,这三个模型都是延续了此前Qwen系列的参数规模。

除了上述6个稠密模型外,本次阿里还开源了2个MoE架构的大模型,分别是总参数规模300亿,每次推理激活30亿的Qwen3-30B-A3B以及总参数规模2350亿,每次推理激活220亿的Qwen3-235B-A22B模型,后者是本次开源的Qwen3系列大模型中参数规模最大的一个,其表现也非常不错,各项评测也超过了OpenAI-o1以及DeepSeek-R1等全球最强模型。

Qwen3系列大模型的评测结果

Qwen3系列改进了模型架构、增加了训练数据集,各方面的改进使得该系列的模型相比较此前的Qwen2.5系列模型都有了大幅的能力提升。其中,最大参数规模的Qwen3-235B-A22B模型在不同评测数据集上的表现甚至超过了OpenAI-o1、DeepSeek-R1、Grok-3系列。

Qwen3-235B-A22B模型的评测结果
Qwen3-235B-A22B模型的评测结果

从上图可以看到,Qwen3-235B-A22B在编程(LiveCodeBench)上的得分达到70.7分,甚至超过了Gemini2.5-Pro模型,也是远超OpenAI的o1和DeepSeek-R1,而在数学竞赛方面(AIME)表现也很不错,大幅领先对手(除了Gemini2.5-Pro这个变态)。

而根据DataLearnerAI搜集的大模型评测数据来看,LiveCodeBench评测上,Qwen3-235B-A32B是目前开源大模型中得分最高的:

Qwen3-235B-A32B与全球主流模型评测对比
Qwen3-235B-A32B与全球主流模型评测对比
数据来源DataLearnerAI大模型评测排行榜:https://www.datalearner.com/ai-models/ai-benchmarks-tests/benchmarks-for-all

可以看到,Qwen3-235B-A22B模型的编程水平很好,不过MMLU-Pro评分就很一般了。

Qwen3的训练细节和开源情况

Qwen3系列模型的架构和训练都有了比较大的变化。首先是Qwen3的预训练阶段的数据集规模就比Qwen2.5系列增加了一倍。Qwen2.5系列模型的预训练tokens数是18万亿,而Qwen3系列则在36万亿tokens上预训练。除了网上的公开文本数据集,阿里还使用Qwen2.5-VL提取了大量的PDF格式数据,同时用Qwen2.5-Math和Qwen2.5-Coder合成了许多数学和编程数据集,来增加Qwen3预训练数据。

预训练阶段,Qwen3先是在4K上下文上预训练30万亿数据,获得基本的能力,然后引入了5万亿高质量数学、编程数据集,增强模型的STEM能力,最后在32K高质量的长上下文数据集上做了预训练,获得了最终的效果。同时为了获得模型的思考能力,Qwen3也做了思维链数据预训练以及基于推理的强化学习过程。

更为重要的是,Qwen3全系列都是Apache2.0协议开源,完全免费商用。在此前的版本中,手机端运行较小的Qwen系列以及最大的Qwen2.5-72B系列都不是完全免费开源的,有一些商用限制,此次完全解除,真是开源榜样!

关于Qwen3系列的其它信息,参考DataLearnerAI的模型信息卡(内包含代码示例以及开源地址) Qwen3-0.6B:https://www.datalearner.com/ai-models/pretrained-models/Qwen3-0_6B Qwen3-1.7B:https://www.datalearner.com/ai-models/pretrained-models/Qwen3-1_7B Qwen3-4B:https://www.datalearner.com/ai-models/pretrained-models/Qwen3-4B Qwen3-8B:https://www.datalearner.com/ai-models/pretrained-models/Qwen3-8B Qwen3-14B:https://www.datalearner.com/ai-models/pretrained-models/Qwen3-14B Qwen3-30B-A3B:https://www.datalearner.com/ai-models/pretrained-models/Qwen3-30B-A3B Qwen3-235B:https://www.datalearner.com/ai-models/pretrained-models/Qwen3-235B

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码
返回博客列表

相关博客

  • 重磅!阿里开源2个多模态向量大模型和重排序大模型:Qwen3-VL-Embedding和Qwen3-VL-Reranker,图片和视频也可以用来做RAG了!
  • 模型不能停,阿里又又又又要开源新模型:Qwen3-Next-80B-A3B
  • Qwen3家族新成员:阿里发布自动语音识别大模型Qwen3-ASR-Flash,中英文语音识别错误率低于GPT-4o和Gemini 2.5 Pro!
  • 阿里发布Qwen3小幅更新版本,放弃混合思考模式,发布全新的2个版本Qwen3-235B-A22B-2507模型,1/5的参数,性能直逼Kimi K2,推理模式版本评测结果接近o3
  • 阿里开源全新编程大模型Qwen3-Coder-480B-A35B,官方宣称其编程水平接近Claude Sonnet 4,免费开源可商用,同时开源Claude Code免费平替选择Qwen Code
  • 为什么Qwen3系列模型中没有720亿参数规模的Qwen3-72B?Qwen3-72B还会发布吗?NO!
  • 重磅!第二代通义千问大模型开源,阿里巴巴一口气开源了30个不同参数规模的模型,其中Qwen1.5-72B仅次于GPT-4.
  • 阿里巴巴开源第二代大语言模型Qwen2系列,最高参数规模700亿,评测结果位列开源模型第一,超过了Meta开源的Llama3-70B!

热门博客

  • 1Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
  • 2回归模型中的交互项简介(Interactions in Regression)
  • 3贝塔分布(Beta Distribution)简介及其应用
  • 4矩母函数简介(Moment-generating function)
  • 5普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
  • 6使用R语言进行K-means聚类并分析结果
  • 7深度学习技巧之Early Stopping(早停法)
  • 8手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署