Qw

Qwen3-Embedding-4B

embedding模型

Qwen3-Embedding-4B

发布时间: 2025-06-05

模型参数(Parameters)
40.0
最高上下文长度(Context Length)
32K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

32K tokens

最长输出结果

4096 tokens

模型类型

embedding模型

发布时间

2025-06-05

模型预文件大小

8GB

开源和体验地址

代码开源状态
预训练权重开源
Apache 2.0 - 免费商用授权
GitHub 源码
暂无GitHub开源地址
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

API接口信息

接口速度(满分5分)
接口价格
输入价格:
  • 文本:
  • 图片:
  • 音频:
  • 视频:
  • Embedding:
输出价格:
  • 文本:
  • 图片:
  • 音频:
  • 视频:
  • Embedding:

输入支持的模态

文本

输入支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出支持

Qwen3-Embedding-4B模型在各大评测榜单的评分

发布机构

模型介绍

Qwen3-Embedding-4B是阿里开源的40亿参数规模的向量大模型,支持100+多种语言。它是Qwen3 Embedding系列开源模型的一员,该系列基于Qwen3基础模型开发,专为文本嵌入、检索和排序任务而设计。


Qwen3-Embedding-4B模型同样继承了其基础模型的多语言理解与长文本处理能力。该模型拥有40亿参数,支持32k的上下文长度,其嵌入维度为2560,并允许用户自定义输出维度。


核心特性

      功能表现: 该模型在多种下游应用中展现了良好的性能表现,为需要平衡效率与效果的场景提供了一个可靠的选项。
      全面的灵活性: Qwen3 Embedding系列提供了从0.6B到8B的多种模型尺寸,Qwen3-Embedding-4B作为其中的中等规模选项,旨在平衡效率与效果。该模型同样支持用户自定义指令,以针对特定任务、语言或场景进行性能优化。测试表明,在多数检索场景中使用指令比不使用指令性能可提升1%到5%。
      多语言能力: 得益于Qwen3基础模型的支持,该模型支持超过100种语言,包括多种编程语言,具备了较强的多语言、跨语言和代码检索能力。

    模型架构与训练

    Qwen3-Embedding-4B基于Qwen3基础模型,采用双编码器(dual-encoder)架构设计,并通过LoRA进行微调,以保留和增强基础模型的文本理解能力。该模型通过处理单个文本段落作为输入,并利用最后一个[EOS]标记对应的隐藏状态向量来提取语义表示。


    其训练过程遵循一个三阶段范式:首先是使用大量弱监督数据进行对比预训练;第二阶段使用高质量的标记数据进行监督训练;最后阶段则通过合并策略整合多个候选模型以提升整体性能。


    性能表现

    Qwen3-Embedding-4B在多个行业标准基准测试中取得了有竞争力的分数:

        在 MTEB (多语言) 排行榜上,平均得分为 69.45。
        在 MTEB (英语 v2) 排行榜上,平均得分为 74.60。
        在 C-MTEB (中文) 排行榜上,平均得分为 72.27。

      这些数据表明,Qwen3-Embedding-4B模型在多语言、英语和中文的各类嵌入任务中均表现稳健,为用户在性能和资源消耗之间提供了一个平衡的选择。

      关注DataLearnerAI公众号

      关注DataLearnerAI微信公众号,接受最新大模型资讯

      DataLearnerAI WeChat