DataLearner logoDataLearnerAI
Latest AI Insights
Model Evaluations
Model Directory
Model Comparison
Resource Center
Tools
LanguageEnglish

加载中...

DataLearner logoDataLearner AI

A knowledge platform focused on LLM benchmarking, datasets, and practical instruction with continuously updated capability maps.

Products

  • Leaderboards
  • Model comparison
  • Datasets

Resources

  • Tutorials
  • Editorial
  • Tool directory

Company

  • About
  • Privacy policy
  • Data methodology
  • Contact

© 2026 DataLearner AI. DataLearner curates industry data and case studies so researchers, enterprises, and developers can rely on trustworthy intelligence.

Privacy policyTerms of service
Page navigation
目录
Model catalogQwen3.5-9B-Instruct
QW

Qwen3.5-9B-Instruct

传闻

Qwen3.5-9B-Instruct

Release date: 2026-02-16更新于: 2026-03-08 21:06:201,312
Live demoGitHubHugging FaceCompare
Parameters
90.0亿
Context length
128K
Chinese support
Supported
Reasoning ability

Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology

Qwen3.5-9B-Instruct

Model basics

Reasoning traces
Supported
Thinking modes
Thinking Level · Extended (Default)Thinking Level · Off
Context length
128K tokens
Max output length
8192 tokens
Model type
聊天大模型
Release date
2026-02-16
Model file size
18GB
MoE architecture
No
Total params / Active params
90.0B / N/A
Knowledge cutoff
No data
Qwen3.5-9B-Instruct

Open source & experience

Code license
MIT License
Weights license
MIT License- 免费商用授权
GitHub repo
https://github.com/QwenLM/Qwen3.5
Hugging Face
https://huggingface.co/Qwen/Qwen3.5-9B-Instruct
Live demo
No live demo
Qwen3.5-9B-Instruct

Official resources

Paper
No paper available
DataLearnerAI blog
No blog post yet
Qwen3.5-9B-Instruct

API details

API speed
No data
No public API pricing yet.
Qwen3.5-9B-Instruct

Benchmark Results

No benchmark data to show.
Qwen3.5-9B-Instruct

Publisher

阿里巴巴
阿里巴巴
View publisher details
Qwen3.5-9B-Instruct

Model Overview

Qwen3.5-9B 是传闻中与 A3B 模型一同被曝光的另一款“特种兵”模型,目前发现于 Hugging Face 的每日趋势榜单(Daily Trending)中被秒删的占位符页面,以及 LMSYS竞技场(Chatbot Arena)的匿名测试对战记录(Battle Logs)中。目前还未正式发布。

根据 X 上的大模型评测号及 Reddit LocalLLaMA 社区的“显微镜”级侦查 推测,这款模型是阿里为了彻底终结“10B以下最强模型”之争而推出的高密度(Dense)战术核显卡模型。

以下是关于该模型爆料传闻的详细整理:

🕵️‍♂️ 传闻来源与发现过程

  • 竞技场“鬼影”: 最硬核的证据来自 LMSYS 竞技场。有用户注意到一个名为 unknown-model-0205 的匿名模型在过去几天内疯狂屠榜,其胜率在“代码”和“复杂指令”类别中超越了 Gemma 2-9B 和 Llama 3.1-8B,甚至逼近了早期的 GPT-4。随后,有内部人员在 Discord 频道疑似说漏嘴,提到这个 ID 对应的是 "Qwen-9B-Next"。
  • 配置参数泄漏: 知名爆料账号在 X 上贴出了一张模糊的 JSON 截图,显示该模型的 hidden_size 和 intermediate_size 不同于常规的 7B 模型,更接近 9B-10B 的参数规模,且 vocab_size 依然是 Qwen 标志性的 151643(或更新版本),进一步证实了其血统。
  • API 文档更新: 阿里云百炼平台的 API 文档在某次更新中,短暂出现了一个 qwen-max-9b-preview 的接口选项,虽然无法调用,但直接实锤了该尺寸的存在。

🧩 模型命名与规格解码

Qwen3.5-9B 这个名字背后隐含了极其精准的市场卡位策略:

  1. 9B (90亿参数):为什么是 9B? 这是为了精确狙击 Google 的 Gemma 2 9B。在 2024-2025 年,Gemma 2 9B 证明了“9B 是新的 7B”,即在消费级显卡(如 8GB 显存)能跑满的极限尺寸下,塞入最强的智力。Qwen 选择这个尺寸,意在夺取“单卡 8GB 显存推理之王”的桂冠。
  2. Dense (稠密架构):与同时爆料的 35B-A3B (MoE) 不同,9B 版本据传是纯稠密模型。这意味着它没有“偷懒”的路由机制,每一个 token 的生成都实打实地调用了 90 亿参数。这通常意味着更稳定的逻辑推理能力和更少的“幻觉”,特别适合数学推导和严谨的文本摘要。

🔮 性能与定位推测

根据社区讨论和泄露的 benchmark 截图:

  • “8GB 显存的极限”: 该模型被誉为 "The 8GB VRAM Savior"(8GB 显存救星)。在 4-bit 量化下,显存占用刚好卡在 6-7GB 之间,给上下文窗口留出了宝贵的 1-2GB 空间。这让数以百万计的 RTX 3060/4060 笔记本用户成为了它的潜在死忠粉。
  • 数学与推理特化: 传闻 Qwen3.5-9B 使用了阿里最新的 "Math-Scaling" 数据配方。有传言称,它在 GSM8K 和 MATH 数据集上的得分极其离谱,甚至超过了 72B 参数的旧版模型。这可能是为了配合 "System 2" 慢思考模式,作为一个轻量级的“验证者(Verifier)”模型使用。
  • 超长上下文: 虽是小模型,但据传原生支持 128k 甚至 256k 上下文,且采用了新的注意力机制(可能是类似 Ring Attention 的变体),在长文档大海捞针(NIAH)测试中表现完美。

⚠️ 结论

如果说 Qwen3.5-35B-A3B 是为了让高端玩家体验“极速”,那么 Qwen3.5-9B 就是为了让大众玩家体验“极致密度”。

  • 它的使命: 证明在 100 亿参数以下,逻辑推理能力依然有巨大的挖掘空间,不仅要打败 Gemma,还要让 Llama 4(假设的竞品)感到压力。
  • 入手建议: 对于只有 8GB-12GB 显存的用户,这可能是 2026 年最值得焊死在硬盘里的“日用主力模型”。

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码