DataLearner logoDataLearnerAI
Latest AI Insights
Model Leaderboards
Benchmarks
Model Directory
Model Comparison
Resource Center
Tools
LanguageEnglish
DataLearner logoDataLearner AI

A knowledge platform focused on LLM benchmarking, datasets, and practical instruction with continuously updated capability maps.

Products

  • Leaderboards
  • Model comparison
  • Datasets

Resources

  • Tutorials
  • Editorial
  • Tool directory

Company

  • About
  • Privacy policy
  • Data methodology
  • Contact

© 2026 DataLearner AI. DataLearner curates industry data and case studies so researchers, enterprises, and developers can rely on trustworthy intelligence.

Privacy policyTerms of service
Page navigation
目录
Model catalogQwQ-32B
QW

QwQ-32B

推理大模型

QwQ-32B

Release date: 2025-03-06更新于: 2025-03-06 09:01:201,316
Live demoGitHubHugging FaceCompare
Parameters
325.0亿
Context length
128K
Chinese support
Supported
Reasoning ability

QwQ-32B is an AI model published by 阿里巴巴, released on 2025-03-06, for 推理大模型, with 325.0B parameters, and 128K tokens context length, requiring about 64GB storage, under the Apache 2.0 license.

Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology

QwQ-32B

Model basics

Reasoning traces
Supported
Thinking modes
Thinking modes not supported
Context length
128K tokens
Max output length
No data
Model type
推理大模型
Release date
2025-03-06
Model file size
64GB
MoE architecture
No
Total params / Active params
325.0B / N/A
Knowledge cutoff
No data
QwQ-32B

Open source & experience

Code license
Apache 2.0
Weights license
Apache 2.0- 免费商用授权
GitHub repo
GitHub link unavailable
Hugging Face
https://huggingface.co/Qwen/QwQ-32B
Live demo
https://huggingface.co/spaces/Qwen/QwQ-32B-Demo
QwQ-32B

Official resources

Paper
QwQ-32B: Embracing the Power of Reinforcement Learning
DataLearnerAI blog
重磅!阿里开源325亿参数规模的推理大模型QwQ-32B:性能接近DeepSeek R1满血版,参数更低,免费商用授权!
QwQ-32B

API details

API speed
No data
No public API pricing yet.
QwQ-32B

Benchmark Results

QwQ-32B currently shows benchmark results led by AIME 2024 (30 / 62, score 79.50), MMLU Pro (69 / 117, score 76), MATH-500 (33 / 43, score 91). This page also consolidates core specs, context limits, and API pricing so you can evaluate the model from benchmark results and deployment constraints together.

Thinking
All modesNormal

综合评估

2 evaluations
Benchmark / mode
Score
Rank/total
MMLU Pro
Standard Mode
76
69 / 117
GPQA Diamond
Standard Mode
58
131 / 166

编程与软件工程

1 evaluations
Benchmark / mode
Score
Rank/total
HumanEval
Standard Mode
19
39 / 39

数学推理

2 evaluations
Benchmark / mode
Score
Rank/total
MATH-500
Standard Mode
91
33 / 43
AIME 2024
Standard Mode
79.50
30 / 62
View benchmark analysisCompare with other models
QwQ-32B

Publisher

阿里巴巴
阿里巴巴
View publisher details
QwQ-32B

Model Overview

就在几个小时前,阿里巴巴开源了最新的一个推理大模型,QwQ-32B,该模型拥有类似o1、DeepSeek R1模型那样的推理能力,但是参数仅325亿,以Apache 2.0开源协议开源,这意味着大家可以完全免费商用。

QwQ-32B模型简介

其实,在2024年11月28日,阿里就已经开源了预览版的推理大模型QwQ-32B-Preview,彼时DeepSeek R1尚未发布(2024年11月20日,DeepSeek官宣了DeepSeek-R1-Lite-Preview,但是没开源)。这应该是当时最早开源的推理大模型之一。三个月后的今天,QwQ-32B正式开源,去掉了预览版的标签。

相比预览版,正式版的QwQ-32B各方面都有明显的提升,包括上下文长度增加到131K(预览版为32K),AIME评分提升50%等。

QwQ 是 Qwen 系列中的推理模型,相较于传统的指令微调模型,QwQ 具备更强的思考和推理能力,能够在下游任务中,尤其是高难度问题上,展现出显著的性能提升。QwQ-32B 作为该系列的中等规模版本,其推理能力在多个基准测试中表现出竞争力,与 DeepSeek-R1、o1-mini 等当前领先的推理模型相媲美。

QwQ-32B模型的主要技术参数如下:

QwQ-32B模型属性详情
模型类型自回归语言模型(Causal Language Model)
训练阶段预训练 & 后训练(监督微调 + 强化学习)
架构Transformer(RoPE、SwiGLU、RMSNorm、Attention QKV bias)
总参数量325亿(32.5B)
非嵌入层参数量310亿(31.0B)
层数64 层
注意力头(GQA)Q 头数 40,KV 头数 8
上下文窗口长度131,072 tokens

QwQ-32B模型的评测结果

根据阿里提供的数据,QwQ-32B模型各方面的评测结果都很不错,非常接近满血版的DeepSeek-R1模型,但是超过了OpenAI o1-mini。比预览版发布的时候提升也很明显。

QwQ-32B模型与其它模型的对比结果

上图可以明显看到,QwQ-32B模型明显好于DeepSeek-R1蒸馏版,也好于o1-mini,接近DeepSeek-R1(是否用过R1的数据?值得思考)。

此外,根据DataLearnerAI收集的AIME2024的测试结果,QwQ也是榜上靠前除了R1外唯一的开源大模型:

数据来源DataLearnerAI的AIME2024大模型评测数据:https://www.datalearner.com/ai-models/llm-benchmark-tests/37

可以看到,这个成绩超过了很多闭源模型,包括Grok3,但是前方OpenAI和Grok推理模式依然很强。

QwQ-32B的开源和在线演示

当前,QwQ-32B以Apache2.0形式开源,意味着可以免费商用。同时,在HuggingFace上也有这个模型的在线演示。大家可以去试用,具体地址参考DataLearnerAI的QwQ-32B模型的模型信息卡:https://www.datalearner.com/ai-models/pretrained-models/QwQ-32B

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码