Qwen3-Embedding-0.6B
Qwen3-Embedding-0.6B is an AI model published by 阿里巴巴, released on 2025-06-05, for embedding模型, with 6.0B parameters, and 32K tokens context length, requiring about 1.2GB storage, under the Apache 2.0 license.
Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology
Qwen3-Embedding-0.6B currently shows benchmark results led by MTEB (4 / 5, score 64.34). This page also consolidates core specs, context limits, and API pricing so you can evaluate the model from benchmark results and deployment constraints together.
Qwen3-Embedding-0.6B是阿里开源的6亿参数规模的向量大模型,支持100+多种语言。作为Qwen3 Embedding系列中最为轻量的版本,它的核心特色在于高效率与低资源消耗。
该模型专为资源受限的应用场景设计,例如在移动端、边缘设备或对计算成本与响应延迟有严格要求的在线服务中部署。它以最小的计算开销,为这些场景提供了可靠的文本嵌入能力。
核心特性
高效率与轻量化: 这是0.6B版本最显著的特点。其仅有6亿的参数规模,使其在推理时速度更快、占用内存更少,非常适合需要快速响应和低成本部署的业务。
全面的灵活性: 作为Qwen3 Embedding系列的一员,它为用户提供了在性能、效果和资源消耗谱系中最轻量级的选择。该模型同样支持用户自定义指令,允许针对特定任务进行优化。
多语言能力: 尽管模型规模较小,但得益于Qwen3基础模型的支持,它依然具备了覆盖超过100种语言的多语言处理能力,这在同等规模的模型中是一个显著优势。
模型架构与训练
Qwen3-Embedding-0.6B同样基于Qwen3基础模型,采用双编码器(dual-encoder)架构和LoRA微调技术进行开发。其训练过程也遵循了与系列中其他模型相同的三阶段范式,确保了模型质量的可靠性。
性能表现
Qwen3-Embedding-0.6B的价值在于其效率与性能的平衡。虽然其在基准测试中的得分低于系列中更大规模的模型,但对于其参数规模而言,表现依然具有很强的竞争力。
在 MTEB (多语言) 排行榜上,平均得分为 65.51。
在 MTEB (英语 v2) 排行榜上,平均得分为 71.74。
在 C-MTEB (中文) 排行榜上,平均得分为 68.27。
这些数据表明,Qwen3-Embedding-0.6B是一个出色的轻量级解决方案,能够在保证多语言能力和可靠性能的同时,最大限度地降低部署和运行成本。
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
