Ge

Gemini Embedding 001

embedding模型

Gemini Embedding 001

发布时间: 2025-07-14

684
模型参数(Parameters)
未披露
最高上下文长度(Context Length)
2K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

2K tokens

最长输出结果

3072 tokens

模型类型

embedding模型

发布时间

2025-07-14

模型预文件大小
暂无数据
推理模式
常规模式(Non-Thinking Mode)

开源和体验地址

代码开源状态
不开源
预训练权重开源
不开源 - 不开源
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
暂无官方论文
DataLearnerAI博客

API接口信息

接口速度(满分5分)
接口价格

默认单位:$/100万 tokens;若计费单位不同,则以供应商公开的原始标注为准。

标准计费 Standard
模态 输入 输出
文本 0.15 美元/100 万tokens --
Embedding -- 0 美元/100 万tokens

Gemini Embedding 001模型在各大评测榜单的评分

文本向量检索

共 1 项评测
MTEB normal
68.37
3 / 5

发布机构

Gemini Embedding 001模型解读

Gemini-Embedding 是谷歌发布的先进向量大模型,现已通过 Gemini API 和 Vertex AI 正式向开发者开放。

模型概述

Gemini-Embedding(gemini-embedding-001)是一个高性能的文本嵌入模型,旨在为多语言、多领域的任务提供强大的语义表示能力。自 2025 年 3 月实验性发布以来,该模型在 MTEB(Massive Text Embedding Benchmark)多语言排行榜 上持续领先,超越谷歌此前发布的文本嵌入模型(如 text-embedding-004text-embedding-005 和 text-multilingual-embedding-002)以及其他商业模型。

核心能力

  1. 多语言支持:支持 100+ 种语言,适用于全球化的 NLP 任务,如跨语言检索、分类和聚类。
  2. 输入长度:最大支持 2048 个 token,适用于长文本嵌入需求。
  3. 输出维度灵活调整:采用 Matryoshka Representation Learning (MRL) 技术,允许开发者动态调整输出维度(默认 3072,可降至 1536 或 768),以优化存储和计算成本,同时保持高精度。
  4. 跨领域优化:在科学、法律、金融、编程等多个领域表现优异,适用于检索增强生成(RAG)、语义搜索、推荐系统、聚类分析等任务。

性能与基准测试

  • 在 MTEB 基准测试中,Gemini-Embedding 在多语言和单语言任务上均表现卓越,特别是在检索(Retrieval)和分类(Classification)任务中显著优于竞品。
  • 谷歌官方技术报告提供了更详细的性能对比数据。

API 访问与定价

  • 免费试用:开发者可通过 Google AI Studio 免费体验 Gemini-Embedding。
  • 生产级定价:$0.15 / 100 万输入 token,适合大规模应用。提供更高的速率限制,满足企业级需求。

迁移与兼容性

  • 旧版模型(如 gemini-embedding-exp-03-07、embedding-001 和 text-embedding-004)将于 2025 年 8 月至 2026 年 1 月 逐步淘汰,建议开发者尽早迁移至 gemini-embedding-001。
  • 兼容现有 embed_content API 接口,迁移成本低。

未来更新

谷歌计划推出 Batch API 支持,允许异步处理大规模数据,进一步降低成本。此外,未来可能扩展至多模态嵌入(如图像、音频等)。









gemini-embedding-001得分排行榜






关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat