DataLearner 标志DataLearnerAI
最新AI资讯
大模型排行榜
大模型评测基准
大模型列表
大模型对比
资源中心
工具
语言中文
DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
页面导航
目录
大模型列表Qwen3.5-9B-Instruct
QW

Qwen3.5-9B-Instruct

聊天大模型

Qwen3.5-9B-Instruct

发布时间: 2026-02-16更新于: 2026-04-02 17:09:521,641
在线体验GitHubHugging FaceCompare
模型参数
90.0亿
上下文长度
128K
中文支持
支持
推理能力

Qwen3.5-9B-Instruct 是由 阿里巴巴 发布的 AI 模型,发布时间为 2026-02-16,定位为 聊天大模型,参数规模约为 90.0B,上下文长度为 128K,模型文件大小约 18GB,采用 MIT License 许可。

数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法

Qwen3.5-9B-Instruct

模型基本信息

推理过程
支持
思考模式
思考水平 · 扩展 (Extended) (默认)思考水平 · 关闭 (Off)
上下文长度
128K tokens
最大输出长度
8192 tokens
模型类型
聊天大模型
发布时间
2026-02-16
模型文件大小
18GB
MoE架构
否
总参数 / 激活参数
90.0 亿 / 不涉及
知识截止
暂无数据
Qwen3.5-9B-Instruct

开源和体验地址

代码开源状态
MIT License
预训练权重开源
MIT License- 免费商用授权
GitHub 源码
https://github.com/QwenLM/Qwen3.5
Hugging Face
https://huggingface.co/Qwen/Qwen3.5-9B-Instruct
在线体验
暂无在线体验地址
Qwen3.5-9B-Instruct

官方介绍与博客

官方论文
暂无官方论文
DataLearnerAI博客
暂无介绍博客
Qwen3.5-9B-Instruct

API接口信息

接口速度
暂无数据
暂无公开的 API 定价信息。
Qwen3.5-9B-Instruct

评测结果

当前尚无可展示的评测数据。
Qwen3.5-9B-Instruct

发布机构

阿里巴巴
阿里巴巴
查看发布机构详情
Qwen3.5-9B-Instruct

模型解读

Qwen3.5-9B 是传闻中与 A3B 模型一同被曝光的另一款“特种兵”模型,目前发现于 Hugging Face 的每日趋势榜单(Daily Trending)中被秒删的占位符页面,以及 LMSYS竞技场(Chatbot Arena)的匿名测试对战记录(Battle Logs)中。目前还未正式发布。

根据 X 上的大模型评测号及 Reddit LocalLLaMA 社区的“显微镜”级侦查 推测,这款模型是阿里为了彻底终结“10B以下最强模型”之争而推出的高密度(Dense)战术核显卡模型。

以下是关于该模型爆料传闻的详细整理:

🕵️‍♂️ 传闻来源与发现过程

  • 竞技场“鬼影”: 最硬核的证据来自 LMSYS 竞技场。有用户注意到一个名为 unknown-model-0205 的匿名模型在过去几天内疯狂屠榜,其胜率在“代码”和“复杂指令”类别中超越了 Gemma 2-9B 和 Llama 3.1-8B,甚至逼近了早期的 GPT-4。随后,有内部人员在 Discord 频道疑似说漏嘴,提到这个 ID 对应的是 "Qwen-9B-Next"。
  • 配置参数泄漏: 知名爆料账号在 X 上贴出了一张模糊的 JSON 截图,显示该模型的 hidden_size 和 intermediate_size 不同于常规的 7B 模型,更接近 9B-10B 的参数规模,且 vocab_size 依然是 Qwen 标志性的 151643(或更新版本),进一步证实了其血统。
  • API 文档更新: 阿里云百炼平台的 API 文档在某次更新中,短暂出现了一个 qwen-max-9b-preview 的接口选项,虽然无法调用,但直接实锤了该尺寸的存在。

🧩 模型命名与规格解码

Qwen3.5-9B 这个名字背后隐含了极其精准的市场卡位策略:

  1. 9B (90亿参数):为什么是 9B? 这是为了精确狙击 Google 的 Gemma 2 9B。在 2024-2025 年,Gemma 2 9B 证明了“9B 是新的 7B”,即在消费级显卡(如 8GB 显存)能跑满的极限尺寸下,塞入最强的智力。Qwen 选择这个尺寸,意在夺取“单卡 8GB 显存推理之王”的桂冠。
  2. Dense (稠密架构):与同时爆料的 35B-A3B (MoE) 不同,9B 版本据传是纯稠密模型。这意味着它没有“偷懒”的路由机制,每一个 token 的生成都实打实地调用了 90 亿参数。这通常意味着更稳定的逻辑推理能力和更少的“幻觉”,特别适合数学推导和严谨的文本摘要。

🔮 性能与定位推测

根据社区讨论和泄露的 benchmark 截图:

  • “8GB 显存的极限”: 该模型被誉为 "The 8GB VRAM Savior"(8GB 显存救星)。在 4-bit 量化下,显存占用刚好卡在 6-7GB 之间,给上下文窗口留出了宝贵的 1-2GB 空间。这让数以百万计的 RTX 3060/4060 笔记本用户成为了它的潜在死忠粉。
  • 数学与推理特化: 传闻 Qwen3.5-9B 使用了阿里最新的 "Math-Scaling" 数据配方。有传言称,它在 GSM8K 和 MATH 数据集上的得分极其离谱,甚至超过了 72B 参数的旧版模型。这可能是为了配合 "System 2" 慢思考模式,作为一个轻量级的“验证者(Verifier)”模型使用。
  • 超长上下文: 虽是小模型,但据传原生支持 128k 甚至 256k 上下文,且采用了新的注意力机制(可能是类似 Ring Attention 的变体),在长文档大海捞针(NIAH)测试中表现完美。

⚠️ 结论

如果说 Qwen3.5-35B-A3B 是为了让高端玩家体验“极速”,那么 Qwen3.5-9B 就是为了让大众玩家体验“极致密度”。

  • 它的使命: 证明在 100 亿参数以下,逻辑推理能力依然有巨大的挖掘空间,不仅要打败 Gemma,还要让 Llama 4(假设的竞品)感到压力。
  • 入手建议: 对于只有 8GB-12GB 显存的用户,这可能是 2026 年最值得焊死在硬盘里的“日用主力模型”。

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码