Qwen3 Vision-Language Embedding 2B
Qwen3 Vision-Language Embedding 2B is an AI model published by 阿里巴巴, released on 2026-01-08, for embedding模型, with 20.0B parameters, and 32K tokens context length, requiring about 4.26GB storage, under the Apache 2.0 license.
Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology
Qwen3-VL-Embedding-2B currently shows benchmark results led by MMEB-v2-Image (4 / 6, score 74.96). This page also consolidates core specs, context limits, and API pricing so you can evaluate the model from benchmark results and deployment constraints together.
Qwen3-VL-Embedding-2B 是 Qwen 团队推出的 多模态向量表示模型,定位于检索系统和 RAG 系统中的第一阶段召回(Recall)。模型基于 Qwen3-VL 视觉语言架构构建,能够将文本、图片、截图(视觉文档)、视频等多种模态统一编码为稠密向量,用于相似度计算和大规模检索。
该模型在参数规模、性能与推理成本之间取得较好平衡,适合在大规模向量库、在线检索服务和资源受限环境中使用。
在典型系统中,Qwen3-VL-Embedding-2B 常作为默认向量模型,与多模态 Reranker 组成两阶段检索链路。
项目说明
模型类型Multimodal Embedding(多模态向量模型)
参数规模2B
网络层数28 层
最大上下文长度32K tokens
向量维度2048(支持 MRL 动态裁剪)
输入模态文本 / 图片 / 截图 / 视频 / 混合模态
指令支持Instruction-aware(支持自定义任务指令)
多语言能力支持 30+ 种语言
量化支持支持低精度量化(如 int8)
许可证Apache 2.0(可商用)
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
