Qw

Qwen3-Embedding-0.6B

embedding模型

Qwen3-Embedding-0.6B

发布时间: 2025-06-05

模型参数(Parameters)
6.0
最高上下文长度(Context Length)
32K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

32K tokens

最长输出结果

1024 tokens

模型类型

embedding模型

发布时间

2025-06-05

模型预文件大小

1.2GB

开源和体验地址

代码开源状态
预训练权重开源
Apache 2.0 - 免费商用授权
GitHub 源码
暂无GitHub开源地址
Hugging Face
在线体验
暂无在线体验地址

API接口信息

接口速度(满分5分)
接口价格
输入价格:
  • 文本:
  • 图片:
  • 音频:
  • 视频:
  • Embedding:
输出价格:
  • 文本:
  • 图片:
  • 音频:
  • 视频:
  • Embedding:

输入支持的模态

文本

输入支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出支持

Qwen3-Embedding-0.6B模型在各大评测榜单的评分

发布机构

模型介绍

Qwen3-Embedding-0.6B是阿里开源的6亿参数规模的向量大模型,支持100+多种语言。作为Qwen3 Embedding系列中最为轻量的版本,它的核心特色在于高效率与低资源消耗。


该模型专为资源受限的应用场景设计,例如在移动端、边缘设备或对计算成本与响应延迟有严格要求的在线服务中部署。它以最小的计算开销,为这些场景提供了可靠的文本嵌入能力。


核心特性

高效率与轻量化: 这是0.6B版本最显著的特点。其仅有6亿的参数规模,使其在推理时速度更快、占用内存更少,非常适合需要快速响应和低成本部署的业务。
全面的灵活性: 作为Qwen3 Embedding系列的一员,它为用户提供了在性能、效果和资源消耗谱系中最轻量级的选择。该模型同样支持用户自定义指令,允许针对特定任务进行优化。
多语言能力: 尽管模型规模较小,但得益于Qwen3基础模型的支持,它依然具备了覆盖超过100种语言的多语言处理能力,这在同等规模的模型中是一个显著优势。

模型架构与训练

Qwen3-Embedding-0.6B同样基于Qwen3基础模型,采用双编码器(dual-encoder)架构和LoRA微调技术进行开发。其训练过程也遵循了与系列中其他模型相同的三阶段范式,确保了模型质量的可靠性。


性能表现

Qwen3-Embedding-0.6B的价值在于其效率与性能的平衡。虽然其在基准测试中的得分低于系列中更大规模的模型,但对于其参数规模而言,表现依然具有很强的竞争力。

在 MTEB (多语言) 排行榜上,平均得分为 65.51。
在 MTEB (英语 v2) 排行榜上,平均得分为 71.74。
在 C-MTEB (中文) 排行榜上,平均得分为 68.27。

这些数据表明,Qwen3-Embedding-0.6B是一个出色的轻量级解决方案,能够在保证多语言能力和可靠性能的同时,最大限度地降低部署和运行成本。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat