加载中...
加载中...
Qwen3.5-397B-A17B
数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法
| 模态 | 输入 | 输出 |
|---|---|---|
| 文本 | 0.6 | 3.6 |
Qwen3.5-397B-A17B模型由阿里巴巴云的Qwen团队开发,于2026年2月16日发布,作为Qwen3.5系列的首个开源权重模型。该模型作为原生视觉-语言基础模型,针对多模态代理应用的进步。
在架构和技术规格方面,它采用混合设计,将通过Gated Delta Networks的线性注意力与稀疏专家混合(MoE)结构集成,导致总参数量为3970亿,每次前向传递激活参数为170亿。上下文窗口扩展至256,000个token,便于处理推理和多模态任务中的扩展序列。预训练涉及大规模视觉-文本token,数据在中文和英文、多语言内容、STEM领域和推理元素方面丰富,并经过严格过滤。
关于核心能力和模态,该模型原生支持文本、图像和视频输入,同时生成文本输出。它在多模态推理方面表现出色,包括视觉理解、空间智能、视频分析、语言理解、代码生成以及代理工作流与工具集成,如网络搜索和代码解释器。
在性能指标上,该模型在MMLU-Pro上获得87.8分,MMLU-Redux上94.9分,SuperGPQA上70.4分,MMMU上85.0分,MMMU-Pro上79.0分,MathVision上88.6分,RealWorldQA上83.9分,VideoMME上87.5分,以及MVBench上77.6分。在比较中,它在知识、推理和编码基准上优于GLM-4.5-355B-A32B和DeepSeek-V3.2-671B-A37B等模型,同时相对于Qwen3-Max在32k和256k上下文中提供8.6x至19.0x更高的解码吞吐量,相对于Qwen3-235B-A22B提供3.5x至7.2x。
对于应用场景,它适用于自治代理系统、视觉推理、编码协助和GUI自动化。已知限制包括在超长视频处理或训练数据未覆盖的高度专业化领域中的潜在约束。
访问通过Apache 2.0许可下的开源权重分发提供,权重可在Hugging Face和GitHub等平台上获得。开发者可以通过阿里巴巴云的Bailian平台以OpenAI格式兼容的API集成它。
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
