Qwen3-Embedding-0.6B
发布时间: 2025-06-05
不支持
32K tokens
1024 tokens
embedding模型
2025-06-05
1.2GB
输入支持
输入不支持
输入不支持
输入不支持
输入不支持
输出不支持
输出不支持
输出不支持
输出不支持
输出支持
Qwen3-Embedding-0.6B是阿里开源的6亿参数规模的向量大模型,支持100+多种语言。作为Qwen3 Embedding系列中最为轻量的版本,它的核心特色在于高效率与低资源消耗。
该模型专为资源受限的应用场景设计,例如在移动端、边缘设备或对计算成本与响应延迟有严格要求的在线服务中部署。它以最小的计算开销,为这些场景提供了可靠的文本嵌入能力。
核心特性
高效率与轻量化: 这是0.6B版本最显著的特点。其仅有6亿的参数规模,使其在推理时速度更快、占用内存更少,非常适合需要快速响应和低成本部署的业务。
全面的灵活性: 作为Qwen3 Embedding系列的一员,它为用户提供了在性能、效果和资源消耗谱系中最轻量级的选择。该模型同样支持用户自定义指令,允许针对特定任务进行优化。
多语言能力: 尽管模型规模较小,但得益于Qwen3基础模型的支持,它依然具备了覆盖超过100种语言的多语言处理能力,这在同等规模的模型中是一个显著优势。
模型架构与训练
Qwen3-Embedding-0.6B同样基于Qwen3基础模型,采用双编码器(dual-encoder)架构和LoRA微调技术进行开发。其训练过程也遵循了与系列中其他模型相同的三阶段范式,确保了模型质量的可靠性。
性能表现
Qwen3-Embedding-0.6B的价值在于其效率与性能的平衡。虽然其在基准测试中的得分低于系列中更大规模的模型,但对于其参数规模而言,表现依然具有很强的竞争力。
在 MTEB (多语言) 排行榜上,平均得分为 65.51。
在 MTEB (英语 v2) 排行榜上,平均得分为 71.74。
在 C-MTEB (中文) 排行榜上,平均得分为 68.27。
这些数据表明,Qwen3-Embedding-0.6B是一个出色的轻量级解决方案,能够在保证多语言能力和可靠性能的同时,最大限度地降低部署和运行成本。
关注DataLearnerAI微信公众号,接受最新大模型资讯