DataLearner logoDataLearnerAI
Latest AI Insights
Model Leaderboards
Benchmarks
Model Directory
Model Comparison
Resource Center
Tools
LanguageEnglish
DataLearner logoDataLearner AI

A knowledge platform focused on LLM benchmarking, datasets, and practical instruction with continuously updated capability maps.

Products

  • Leaderboards
  • Model comparison
  • Datasets

Resources

  • Tutorials
  • Editorial
  • Tool directory

Company

  • About
  • Privacy policy
  • Data methodology
  • Contact

© 2026 DataLearner AI. DataLearner curates industry data and case studies so researchers, enterprises, and developers can rely on trustworthy intelligence.

Privacy policyTerms of service
  1. Home
  2. Research Orgs
  3. 阿里巴巴
阿里巴巴

阿里巴巴

Organization profile and published models

About this organization

在全球大模型飞速迭代的今天,阿里巴巴的 通义千问(Qwen)团队已悄然成为产业界与开源社区中最有影响力的力量之一。它们的节奏快、路线稳、工程体系完整,甚至常被开发者称为“中国版的 Llama 团队”。在过去近两年的时间里,Qwen 全家族从最初的 Qwen-1 一路进化到如今的 Qwen3,模型能力、生态影响力与开源透明度都在持续扩大。

通义团队的风格非常鲜明:并不强调“某个论文突破”,也不依赖夸张的宣传,而是通过持续的产品化打磨与全链路工程能力把模型一步步推向可规模应用的边界。更重要的是,几乎每个版本都能看到它们吸收“真实业务反馈”后的显著进化,这使得 Qwen 系列在国内外开发者群体中获得了极高的认可度。


01 从团队视角看通义千问:不是研究部门,而是“AI 基建团队”

与许多以研究为主导的大模型团队不同,通义千问在阿里体系中的身份非常特别——它们更像是一个面向全阿里集团、也面向外部生态的 AI 基础设施团队。

这个定位决定了它们的日常工作并不止是训练模型,还要长期维护:

  • 大规模训练数据链路
  • 模型安全和对齐体系
  • 推理加速框架
  • 自建评测系统
  • 企业 API 交付能力
  • 针对淘宝、钉钉、通义App等内部产品的适配和稳定性

换句话说,通义千问承担的是“从训练到产品落地”的完整链路,而不是“做一个模型扔给产品团队”。在中国大模型团队里,这种“工程+产品一体化”的组织结构其实非常罕见,也直接导致它们的模型每一代都更接近真实场景需求。


02 进入 Qwen3 时代:模型的能力边界被进一步推开

Qwen3 是通义千问目前最新的一代语言模型家族,也是迄今为止“通义体系最系统化的版本”。从外部的评测反馈和模型表现来看,这一代的训练策略明显更成熟,包括:

  • 推理能力的显著增强:在数学、代码、任务规划上都比 Qwen2.5 更稳。
  • 模型规模更灵活:从移动端可跑的小模型到服务器级大模型,都有覆盖。
  • 多语言能力体系更加独立:它开始不依附“中文强,多语言凑合”这种传统印象,而是全面对标国际模型。
  • 更精细的数据治理:包括长尾对话、真实错误样本、企业级结构化内容等。

如果说 Qwen2.5 是“几乎全维升级”的版本,那么 Qwen3 更像是一次“真正整体换代”:不只是大、强,而是更好用、更可控、更像产品。

为了让开发者理解 Qwen3 所处的位置,可以把它和前代的关系粗略总结如下:

版本特征时代意义

Qwen-1 / 1.5稳健、实用、企业级对话能力通义的起点

Qwen-2模型体系成熟、生态迎来爆发进军国际开源圈

Qwen-2.5全面提升推理和对齐能力对标主流闭源能力

Qwen3(最新)全面重构、多模态与工具能力升级全球级模型的正式竞争者

这是通义团队第一次在“迭代节奏+工程成熟度+开源透明度”三个维度上同时对齐国际一流团队。


03 多模态不是补充,而是 Qwen 系列的另一条主线

对通义千问团队来说,多模态并不是“语言模型的附加功能”,而是一条与 LLM 并列的技术主线。从 Qwen-VL 到最新的 Qwen-VL-3,团队不断扩展多模态的边界,包括:

  • 高精度中文 OCR
  • 表格识别与结构化重建
  • UI / Web 页面理解
  • PDF 解析
  • 复杂视觉推理
  • 文档级任务(跨页引用、段落对齐等)

在国内外多模态开源模型中,Qwen-VL 系列一直被视为“最贴合实际业务需求”的类型。那些在电商、办公、文档解析、RPA 场景中部署过视觉模型的开发者,通常都对 Qwen-VL 有非常高的评价。

而在视觉生成方向,通义千问团队又推出了 Z-Image-Turbo,速度极快且效果稳定,背后的 Z-Index / Token 压缩体系也展示了它们在高效视觉建模方面相当扎实的基本功。


04 Agent 能力:从模型输出到执行系统的完整闭环

通义千问团队在 Qwen3 时代开始强化 Agent 体系,形成完整的工具链与执行框架。与传统“玩具级 Agent”不同,他们强调:

Agent 不只是调用 API,而是模型与任务间的“操作系统”。

这意味着通义 Agent 系统涵盖了:

  • 工具调用(function calling)
  • 执行计划生成
  • 执行过程监控
  • 中间状态记录
  • 人机协作节点
  • 复杂工作流的分层执行

这种工程化的 Agent 思路与 Anthropic 的双 Agent 架构、OpenAI 的 Assistants API 都有异曲同工之妙,甚至在某些“面向企业落地”的维度上更成熟。


05 为什么是通义千问?看似缓慢,实则稳健的技术路线

许多开发者对通义千问的共同评价是:

“它们不炫技、不卷论文、不玩花哨 benchmark,但每一代都明显更好用了。”

这种风格来源于两个长期战略:

(1)阿里内部的真实需求足够多样

电商搜索、图文生成、客服、办公、广告、电商图像、智能助理──这些领域几乎覆盖了语言模型的完整能力边界。

因此,模型天然具备更强的长尾能力与鲁棒性。

(2)工程团队规模化、体系化且长期稳定

从数据到训练、对齐、推理、SaaS 服务、企业交付,每一环都成熟稳定。

这也是为什么 Qwen 系列“一开源就能落地”。

(3)坚持开源但不掉价

通义千问的开源路线明确且持续:

  • 不阉割能力
  • 不做“开源壳子+闭源精度”
  • 不搞只剩推理图的低质量开源
  • 不玩虚名性指标

在开源圈,这是非常重要的声誉资产。


结语:一支中国团队,正在以全球节奏向前推进

截至 Qwen3,通义千问团队已经完成了一个从 0 到体系化、从模型到生态的完整跃迁。他们不仅在做一个大模型,更是在构建一种 可持续的开放式 AI 能力体系。

在全球大模型进入“长期竞争期”的当下,这种稳定而持续的工程投入比“发布某个奇迹模型”更为重要。对开发者、企业和研究者来说,通义千问未来几年的走向,依然值得持续关注。

Published models

121 models across 8 categories

Models published by 阿里巴巴, grouped by category.

Multimodal models

25 models
Happy Horse不开源
0.0 params2026-05-07
Qwen3.5-Omni-LightOpen source
0.0 params2026-03-30
Qwen3.5-Omni-FlashOpen source
0.0 params2026-03-30
Qwen3.5-Omni-PlusOpen source
0.0 params2026-03-30
Qwen3.5-397B-A17BOpen source
397.0 params2026-02-16
Qwen-Image-2.0不开源
0.0 params2026-02-09
Qwen-Image-2512Open source
200.0 params2025-12-31
Qwen3-VL-32B-ThinkingOpen source
320.0 params2025-10-22
Qwen3-VL-2B-ThinkingOpen source
20.0 params2025-10-22
Qwen3-VL-32BOpen source
320.0 params2025-10-22
Qwen3-VL-2BOpen source
20.0 params2025-10-22
Qwen3-VL-8B-InstructOpen source
88.0 params2025-10-15
Qwen3-VL-4B-InstructOpen source
40.0 params2025-10-15
Qwen3-VL-235B-A22B-InstructOpen source
2350.0 params2025-09-23
Qwen-Image-EditOpen source
300.0 params2025-09-22
Qwen3-Omni-30B-A3BOpen source
300.0 params2025-09-22
Qwen-Image-EditOpen source
200.0 params2025-08-19
Qwen ImageOpen source
200.0 params2025-08-04
Qwen2.5-Omni-7BOpen source
70.0 params2025-03-27
Qwen2.5-VL-32B-InstructOpen source
320.0 params2025-03-24
Wan2.1-T2V-14BOpen source
140.0 params2025-02-25
Qwen2.5-VL-72B-InstructOpen source
720.0 params2025-01-28
Qwen-VL-MAX不开源
0.0 params2024-01-25
Qwen-AudioOpen source
85.0 params2023-11-30
Qwen-VL-Plus不开源
0.0 params2023-11-28

Reasoning models

21 models
Qwen3.6-35B-A3BOpen source
350.0 params2026-04-16
Qwen3.5-35B-A3BOpen source
350.0 params2026-02-25
Qwen3.5-122B-A10BOpen source
1220.0 params2026-02-25
Qwen3.5-27BOpen source
270.0 params2026-02-25
Qwen3-Max-Thinking不开源
10000.0 params2026-01-26
Qwen3-VL-Reranker-2BOpen source
20.0 params2026-01-08
Qwen3-VL-8B-ThinkingOpen source
87.7 params2025-10-15
Qwen3-VL-4B-ThinkingOpen source
44.4 params2025-10-15
Qwen3-235B-A22B-ThinkingOpen source
305.0 params2025-07-30
Qwen3-235B-A22B-Thinking-2507Open source
2350.0 params2025-07-25
Qwen3-235B-A22BOpen source
2350.0 params2025-04-28
Qwen3-32BOpen source
320.0 params2025-04-28
Qwen3-0.6BOpen source
6.0 params2025-04-28
Qwen3-1.7BOpen source
17.0 params2025-04-28
Qwen3-14BOpen source
140.0 params2025-04-28
Qwen3-30B-A3BOpen source
305.0 params2025-04-28
Qwen3-8BOpen source
80.0 params2025-04-28
Qwen3-4BOpen source
40.0 params2025-04-28
QwQ-Max-PreviewOpen source
2025-03-20
QwQ-32BOpen source
325.0 params2025-03-06
QwQ-32B-PreviewOpen source
320.0 params2024-11-28

Chat models

19 models
Qwen 3.6 Plus Preview不开源
0.0 params2026-03-31
Qwen3.5-35B-A3B-InstructOpen source
350.0 params2026-02-16
Qwen3.5-9B-InstructOpen source
90.0 params2026-02-16
Qwen3-NextOpen source
800.0 params2025-09-11
Qwen3 Max (Preview)不开源
0.0 params2025-09-05
Qwen3-4B-Thinking-2507Open source
40.0 params2025-08-06
Qwen3-4B-2507Open source
40.0 params2025-08-06
Qwen3-30B-A3B-2507Open source
305.0 params2025-07-29
Qwen3-235B-A22B-2507Open source
2350.0 params2025-07-21
Qwen2.5-Max不开源
2025-01-28
Qwen2.5-Coder-32B-InstructOpen source
320.0 params2024-11-12
Qwen1.5-110B-ChatOpen source
1100.0 params2024-04-20
Qwen1.5-72B-ChatOpen source
720.0 params2024-02-06
Qwen1.5-7B-ChatOpen source
70.0 params2024-02-06
Qwen1.5-14B-ChatOpen source
140.0 params2024-02-06
Qwen1.5-4B-ChatOpen source
40.0 params2024-02-06
Qwen1.5-1.8B-ChatOpen source
18.0 params2024-02-06
Qwen1.5-0.5B-ChatOpen source
5.0 params2024-02-06
Qwen-14B-ChatOpen source
140.0 params2023-09-24

Coding models

5 models
Qwen3-Coder-NextOpen source
80.0 params2026-02-03
Qwen3-Coder-FlashOpen source
305.0 params2025-07-31
Qwen3-Coder-480B-A35BOpen source
4800.0 params2025-07-23
CodeQwen1.5-7B-ChatOpen source
70.0 params2024-04-16
CodeQwen1.5-7BOpen source
70.0 params2024-04-16

Speech models

11 models
Qwen3-ASROpen source
8.0 params2026-01-29
Qwen3-TTS-12Hz-0.6B-CustomVoiceOpen source
6.0 params2026-01-22
Qwen3-TTS-12Hz-1.7B-BaseOpen source
17.0 params2026-01-22
Qwen3-TTS-12Hz-1.7B-VoiceDesignOpen source
0.0 params2026-01-22
Qwen3-TTS-12Hz-0.6B-BaseOpen source
0.0 params2026-01-22
Qwen3-TTS-12Hz-1.7B-CustomVoiceOpen source
0.0 params2026-01-22
Qwen3-TTS 1.7BOpen source
17.0 params2026-01-22
Qwen3-TTS 0.6BOpen source
6.0 params2026-01-15
Qwen3-TTS-Flash不开源
0.0 params2025-09-22
Qwen3-ASR-Flash不开源
0.0 params2025-09-08
Qwen-TTS不开源
0.0 params2025-06-27

Embedding models

13 models
Qwen3-VL-Reranker-8BOpen source
80.0 params2026-01-08
Qwen3-VL-Embedding-8BOpen source
80.0 params2026-01-08
Qwen3-VL-Embedding-2BOpen source
20.0 params2026-01-08
Qwen3-Reranker-4BOpen source
40.0 params2025-06-05
Qwen3-Reranker-8BOpen source
80.0 params2025-06-05
Qwen3-Reranker-0.6BOpen source
6.0 params2025-06-05
Qwen3-Embedding-0.6BOpen source
6.0 params2025-06-05
Qwen3-Embedding-4BOpen source
40.0 params2025-06-05
Qwen3-Embedding-8BOpen source
80.0 params2025-06-05
GME-Qwen2-VL-2BOpen source
20.0 params2024-12-24
GME-Qwen2-VL-7BOpen source
70.0 params2024-12-24
GTE-SmallOpen source
0.3 params2023-08-07
GTE-LargeOpen source
3.3 params2023-08-07

Vision models

3 models
Qwen-Image-Edit-2511Open source
0.0 params2025-12-23
Z-Image-TurboOpen source
60.0 params2025-11-27
AnyTextOpen source
5.0 params2023-11-06

Foundation models

24 models
Qwen2.5-Math-72BOpen source
727.0 params2024-09-18
Qwen2.5-0.5BOpen source
5.0 params2024-09-18
Qwen2.5-1.5BOpen source
15.0 params2024-09-18
Qwen2.5-3BOpen source
30.0 params2024-09-18
Qwen2.5-7BOpen source
70.0 params2024-09-18
Qwen2.5-14BOpen source
140.0 params2024-09-18
Qwen2.5-32BOpen source
320.0 params2024-09-18
Qwen2.5-72BOpen source
727.0 params2024-09-18
Qwen2-57B-A14BOpen source
570.0 params2024-06-07
Qwen2-72BOpen source
727.0 params2024-06-07
Qwen2-0.5BOpen source
4.0 params2024-06-07
Qwen2-1.5BOpen source
15.0 params2024-06-07
Qwen2-72B-InstructOpen source
720.0 params2024-06-07
Qwen2-7BOpen source
70.0 params2024-06-07
Qwen1.5-110BOpen source
1100.0 params2024-04-25
Qwen1.5-32BOpen source
320.0 params2024-04-03
Qwen1.5-MoE-A2.7B-ChatOpen source
143.0 params2024-03-28
Qwen1.5-MoE-A2.7BOpen source
143.0 params2024-03-28
Qwen-1.8BOpen source
18.0 params2023-11-30
Qwen-72BOpen source
720.0 params2023-11-30
Qwen-14BOpen source
140.0 params2023-09-24
GTE-BaseOpen source
1.1 params2023-08-07
Qwen-7B-ChatOpen source
70.0 params2023-08-03
Qwen-7BOpen source
70.0 params2023-08-03