Qw

Qwen3-Reranker-0.6B

embedding模型

Qwen3-Reranker-0.6B

发布时间: 2025-06-05

模型参数(Parameters)
6.0
最高上下文长度(Context Length)
32K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

32K tokens

最长输出结果
暂无数据
模型类型

embedding模型

发布时间

2025-06-05

模型预文件大小

1.2GB

开源和体验地址

代码开源状态
预训练权重开源
Apache 2.0 - 免费商用授权
GitHub 源码
暂无GitHub开源地址
Hugging Face
在线体验
暂无在线体验地址

API接口信息

接口速度(满分5分)
接口价格
输入价格:
  • 文本:
  • 图片:
  • 音频:
  • 视频:
  • Embedding:
输出价格:
  • 文本:
  • 图片:
  • 音频:
  • 视频:
  • Embedding:

输入支持的模态

文本

输入支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出支持

Qwen3-Reranker-0.6B模型在各大评测榜单的评分

发布机构

模型介绍

Qwen3-Reranker-0.6B是阿里开源的6亿参数规模的重排序(Reranker)大模型,支持100多种语言。该模型是阿里在2025年6月5日发布的Qwen3 Embedding系列中的一员,该系列基于Qwen3基础模型构建,专注于文本嵌入、检索和重排序任务。

Qwen3-Reranker-0.6B模型拥有6亿参数,28层网络结构,并支持长达32K的序列长度。它的核心是采用了交叉编码器(cross-encoder)架构,该架构可以同时处理文本对(例如用户查询和候选文档),并直接计算和输出两者之间的相关性得分,从而提升搜索结果的相关性。模型经过LoRA微调,旨在充分保留和增强基础模型的文本理解能力。

在训练方面,为了提升效率,Qwen3-Reranker-0.6B直接采用高质量的标注数据进行监督训练。作为一个“指令感知”(Instruction Aware)模型,它支持用户根据具体任务、语言或场景自定义输入指令,以达到更好的性能。

根据官方公布的评测结果,Qwen3-Reranker-0.6B在多个文本检索评测基准上表现出色,其具体得分包括:MTEB-R(65.80)、CMTEB-R(71.31)、MMTEB-R(66.36)、MLDR(67.28)以及MTEB-Code(73.42)。

整个Qwen3 Embedding系列模型,包括Qwen3-Reranker-0.6B,均已在Hugging Face和ModelScope上根据Apache 2.0许可证开源。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat