DataLearner 标志DataLearnerAI
最新AI资讯
大模型排行榜
大模型评测基准
大模型列表
大模型对比
资源中心
工具
语言中文
DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
页面导航
目录
大模型列表Qwen3.6-27B评测分析

Qwen3.6-27B 评测详情

Qwen3.6-27B 当前已收录的代表性评测结果包括 MMLU Pro(11 / 118,得分 86.20)、LiveCodeBench(13 / 112,得分 83.90)、GPQA Diamond(26 / 168,得分 87.80)。本页还提供与 3 个竞品模型及 3 个前代或同系列模型的对比,在有数据时会展示性能和价格视图。并附有 1 个数据来源链接供参考。

评测结果

Qwen3.6-27B

评测结果

思考模式
全部思考
思考模式细分 (1)
全部默认 (思考模式)
工具使用
全部使用工具不使用工具

综合评估

共 4 项评测
评测名称 / 模式
得分
排名/总数
C-Eval
思考模式
91.40
5 / 9
GPQA Diamond
思考模式
87.80
26 / 168
MMLU Pro
思考模式
86.20
11 / 118
HLE
思考模式
24
71 / 134

编程与软件工程

共 4 项评测
评测名称 / 模式
得分
排名/总数
LiveCodeBench
思考模式
83.90
13 / 112
SWE-bench Verified
思考模式工具
77.20
16 / 97
SWE-bench Multilingual
思考模式工具
71.30
7 / 11
SWE-Bench Pro - Public
思考模式工具
53.50
15 / 29

AI Agent - 工具使用

共 1 项评测
评测名称 / 模式
得分
排名/总数
Terminal Bench 2.0
思考模式工具
59.30
14 / 36

数学推理

共 2 项评测
评测名称 / 模式
得分
排名/总数
AIME 2026
思考模式
94.10
4 / 14
IMO-AnswerBench
思考模式
80.80
10 / 11

OpenClaw智能体能力综合测评

共 1 项评测
评测名称 / 模式
得分
排名/总数
Claw Bench
思考模式工具
72.40
27 / 29
与其他模型对比

竞品对比

Qwen3.6-27B 与同类主流模型的评测得分对比

Qwen3.6-27BGemini 3.0 FlashHaiku 4.5GPT-5.4 mini
评测类别:
柱状图按当前筛选范围内每个模型在各评测中的最高分展示;具体模式明细请看下方表格。

评测得分对比

8 项可对比评测得分汇总。每个模型展示最佳得分,模式在分数下方标注。

评测项Qwen3.6-27B当前Gemini 3.0 FlashHaiku 4.5GPT-5.4 mini
GPQA Diamond
综合评估
87.80开启思考
90.40开启思考
73.30扩展思考
88.00思考水平·极高
HLE
综合评估
24.00开启思考
43.50开启思考 | 工具
9.70扩展思考
41.50思考水平·极高 | 工具
MMLU Pro
综合评估
86.20开启思考
--
80.00扩展思考
--
LiveCodeBench
编程与软件工程
83.90开启思考
--
62.00扩展思考
--
SWE-Bench Pro - Public
编程与软件工程
53.50开启思考 | 工具
--
39.45扩展思考 | 工具
54.40思考水平·极高 | 工具
SWE-bench Verified
编程与软件工程
77.20开启思考 | 工具
68.70开启思考
73.30128K | 工具
--
Terminal Bench 2.0
AI Agent - 工具使用
59.30开启思考 | 工具
47.60开启思考 | 工具
--
60.00思考水平·极高 | 工具
Claw Bench
OpenClaw智能体能力综合测评
72.40开启思考 | 工具
85.70开启思考 | 工具
89.40开启思考 | 工具
75.30开启思考 | 工具

Qwen3.6-27B 与同类模型的标准 API 价格对比

按模型并排展示标准文本输入价与输出价;若存在超长上下文加价,仅保留阈值内标准价,并在下方说明适用范围。

数据来源:DataLearnerAI,展示默认供应商的标准文本价格。 · USD / 1M tokens

模型供应商标准输入标准输出标准价适用于
Gemini 3.0 Flash
—0.5 美元/100万 tokens3 美元/100万 tokens—
Haiku 4.5
—1 美元 / 100万 tokens5 美元 / 100万 tokens—
GPT-5.4 mini
OpenAI$0.75 / 1M tokens$4.5 / 1M tokens—

历代版本对比

Qwen3.6-27B 系列各版本的评测成绩纵向对比

Qwen3.6-27BQwen3.5-27BQwen3-32BQwen2.5-32B
评测类别:
柱状图按当前筛选范围内每个模型在各评测中的最高分展示;具体模式明细请看下方表格。

评测得分对比

8 项可对比评测得分汇总。每个模型展示最佳得分,模式在分数下方标注。· 点击任意行可切换下方趋势图。

评测项Qwen3.6-27B当前Qwen3.5-27BQwen3-32BQwen2.5-32B
C-Eval
综合评估
91.40开启思考
90.50开启思考
87.30开启思考
--
GPQA Diamond
综合评估
87.80开启思考
85.50开启思考
68.40开启思考
--
HLE
综合评估
24.00开启思考
48.50开启思考 | 工具
--
--
MMLU Pro
综合评估
86.20开启思考
86.10开启思考
--
69.23常规模式
LiveCodeBench
编程与软件工程
83.90开启思考
80.70开启思考 | 工具
65.70开启思考
51.20常规模式
SWE-bench Verified
编程与软件工程
77.20开启思考 | 工具
72.40开启思考
--
--
Terminal Bench 2.0
AI Agent - 工具使用
59.30开启思考 | 工具
41.60开启思考 | 工具
--
--
Claw Bench
OpenClaw智能体能力综合测评
72.40开启思考 | 工具
75.20开启思考 | 工具
--
--

单评测历史趋势图

当前查看:C-Eval · 综合评估

选择评测
常规常规 + 工具推理推理 + 工具深度推理深度推理 + 工具

横轴为模型与发布时间,纵轴为分数;同一模式会用实线串起版本变化,同代不同模式继续用虚线辅助对齐。

Qwen3.6-27B 所在系列的标准 API 价格对比

按模型并排展示标准文本输入价与输出价;若存在超长上下文加价,仅保留阈值内标准价,并在下方说明适用范围。

数据来源:DataLearnerAI,展示默认供应商的标准文本价格。

这些模型的价格币种或计费单位不一致,暂不直接绘制统一柱状图,以下展示原始价格。

Qwen3-32B
标准输入: 0.7 美元/100 万tokens
标准输出: 2.8 美元/100 万tokens
模型供应商标准输入标准输出标准价适用于
Qwen3-32B
—0.7 美元/100 万tokens2.8 美元/100 万tokens—

数据来源

qwen.ai