Qw

Qwen3-Embedding-8B

embedding模型

Qwen3-Embedding-8B

发布时间: 2025-06-05

模型参数(Parameters)
80.0
最高上下文长度(Context Length)
32K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

32K tokens

最长输出结果

4096 tokens

模型类型

embedding模型

发布时间

2025-06-05

模型预文件大小

16GB

开源和体验地址

代码开源状态
预训练权重开源
Apache 2.0 - 免费商用授权
GitHub 源码
暂无GitHub开源地址
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

API接口信息

接口速度(满分5分)
接口价格
输入价格:
  • 文本:
  • 图片:
  • 音频:
  • 视频:
  • Embedding:
输出价格:
  • 文本:
  • 图片:
  • 音频:
  • 视频:
  • Embedding:

输入支持的模态

文本

输入支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出支持

Qwen3-Embedding-8B模型在各大评测榜单的评分

发布机构

模型介绍

Qwen3-Embedding-8B是阿里开源的80亿参数规模的向量大模型,支持100+多种语言。这是Qwen3 Embedding系列开源模型中的一员,该系列基于Qwen3基础模型开发,专为文本嵌入、检索和排序任务而设计。


Qwen3-Embedding-8B模型继承了其基础模型的多语言理解、长文本理解和推理能力。该模型拥有80亿参数,上下文长度为32k,嵌入维度最高可达4096,并支持用户自定义从32到4096的输出维度。


核心特性

      卓越的通用性: 该模型在多个下游应用评测中表现出色。截至2025年6月5日,其8B规模的模型在MTEB多语言排行榜上排名第一,得分为70.58。
      全面的灵活性: Qwen3 Embedding系列提供了从0.6B到8B的多种模型尺寸,以适应不同效率和效果的用例。Qwen3-Embedding-8B支持用户自定义指令,以针对特定任务、语言或场景优化性能。测试表明,在多数检索场景中使用指令比不使用指令性能可提升1%到5%。
      多语言能力: 得益于Qwen3模型的支持,该系列支持超过100种语言,包括多种编程语言,提供了强大的多语言、跨语言和代码检索能力。

    模型架构与训练

    Qwen3-Embedding-8B基于Qwen3基础模型,采用双编码器(dual-encoder)架构设计,并通过LoRA进行微调,以保留和增强基础模型的文本理解能力。该模型通过处理单个文本段落作为输入,并利用最后一个[EOS]标记对应的隐藏状态向量来提取语义表示。


    其训练过程遵循一个三阶段范式:首先是使用大量弱监督数据进行对比预训练;第二阶段使用高质量的标记数据进行监督训练;最后阶段则通过合并策略整合多个候选模型以提升整体性能。


    性能表现


    Qwen3-Embedding-8B在多个基准测试中取得了领先的成绩。

        在MTEB(多语言)排行榜上,得分为70.58。
        在MTEB(英语 v2)排行榜上,得分为75.22。
        在C-MTEB(中文MTEB)排行榜上,得分为73.84。

      关注DataLearnerAI公众号

      关注DataLearnerAI微信公众号,接受最新大模型资讯

      DataLearnerAI WeChat