Qwen3-Embedding-8B
Qwen3-Embedding-8B is an AI model published by 阿里巴巴, released on 2025-06-05, for embedding模型, with 80.0B parameters, and 32K tokens context length, requiring about 16GB storage, under the Apache 2.0 license.
Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology
Qwen3-Embedding-8B currently shows benchmark results led by MTEB (1 / 5, score 70.58). This page also consolidates core specs, context limits, and API pricing so you can evaluate the model from benchmark results and deployment constraints together.
Qwen3-Embedding-8B是阿里开源的80亿参数规模的向量大模型,支持100+多种语言。这是Qwen3 Embedding系列开源模型中的一员,该系列基于Qwen3基础模型开发,专为文本嵌入、检索和排序任务而设计。
Qwen3-Embedding-8B模型继承了其基础模型的多语言理解、长文本理解和推理能力。该模型拥有80亿参数,上下文长度为32k,嵌入维度最高可达4096,并支持用户自定义从32到4096的输出维度。
Qwen3-Embedding-8B基于Qwen3基础模型,采用双编码器(dual-encoder)架构设计,并通过LoRA进行微调,以保留和增强基础模型的文本理解能力。该模型通过处理单个文本段落作为输入,并利用最后一个[EOS]标记对应的隐藏状态向量来提取语义表示。
其训练过程遵循一个三阶段范式:首先是使用大量弱监督数据进行对比预训练;第二阶段使用高质量的标记数据进行监督训练;最后阶段则通过合并策略整合多个候选模型以提升整体性能。
Qwen3-Embedding-8B在多个基准测试中取得了领先的成绩。
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
