Qwen3-VL-Embedding-2B
Qwen3 Vision-Language Embedding 2B
模型参数
20.0亿
上下文长度
32K
中文支持
支持
推理能力
模型基本信息
推理过程
不支持
上下文长度
32K tokens
最大输出长度
2048 tokens
模型类型
暂无数据
发布时间
2026-01-08
模型文件大小
4.26GB
MoE架构
否
总参数 / 激活参数
20.0 亿 / 不涉及
知识截止
暂无数据
推理模式
常规模式(Non-Thinking Mode)
开源和体验地址
官方介绍与博客
API接口信息
接口速度
3/5
暂无公开的 API 定价信息。
评测得分
发布机构
阿里巴巴
查看发布机构详情 模型解读
Qwen3-VL-Embedding-2B 是 Qwen 团队推出的 多模态向量表示模型,定位于检索系统和 RAG 系统中的第一阶段召回(Recall)。模型基于 Qwen3-VL 视觉语言架构构建,能够将文本、图片、截图(视觉文档)、视频等多种模态统一编码为稠密向量,用于相似度计算和大规模检索。
该模型在参数规模、性能与推理成本之间取得较好平衡,适合在大规模向量库、在线检索服务和资源受限环境中使用。
核心定位
- 用于 多模态检索 / 多模态 RAG 的向量召回阶段
- 支持 跨模态检索(文本搜图、文本搜视频、文本搜截图等)
- 面向 高吞吐、低延迟、可规模化部署 的生产场景
在典型系统中,Qwen3-VL-Embedding-2B 常作为默认向量模型,与多模态 Reranker 组成两阶段检索链路。
模型规格(官方公开信息整理)
项目说明
模型类型Multimodal Embedding(多模态向量模型)
参数规模2B
网络层数28 层
最大上下文长度32K tokens
向量维度2048(支持 MRL 动态裁剪)
输入模态文本 / 图片 / 截图 / 视频 / 混合模态
指令支持Instruction-aware(支持自定义任务指令)
多语言能力支持 30+ 种语言
量化支持支持低精度量化(如 int8)
许可证Apache 2.0(可商用)
模型特点
- 统一多模态表示空间 不同模态的数据被映射到同一向量空间,可直接进行跨模态相似度计算。
- 支持长上下文输入 32K 上下文长度适合长文档、长截图序列和视频片段编码。
- MRL(Matryoshka Representation Learning) 支持在不重新编码的情况下截取不同维度的向量,用于在存储成本、检索速度和效果之间做权衡。
- Instruction-aware 向量化 可通过指令明确检索任务目标,使向量更贴近具体业务定义的“相关性”。
适用场景
- 多模态 RAG 的第一阶段召回
- 图片 / 视频 / 文档截图检索
- 企业知识库向量化
- 大规模在线搜索系统
- 对算力和延迟敏感的生产环境
DataLearner 官方微信
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
