BGE-Large-en-v1.5 - BAAI General Embedding - Large-EN-1.5

模型详细情况和参数

BGE-Large-en-v1.5

模型全称
BAAI General Embedding - Large-EN-1.5
模型简称
BGE-Large-en-v1.5
模型类型
embedding模型
发布日期
2023-09-12
预训练文件大小
1.34GB
是否支持中文(中文优化)
最高支持的上下文长度
512
模型参数数量(亿)
3.26
代码是否开源
MIT License
预训练结果是否开源
MIT License
预训练结果商用授权情况
免费商用授权
发布论文名(官方博客名)
C-Pack: Packaged Resources To Advance General Chinese Embedding
论文地址(官方博客地址)
https://arxiv.org/abs/2309.07597
基础模型
无基础模型

BAAI General Embedding - Large-EN-1.5 简介

北京智源人工智能研究院开源的向量大模型,bge-large-en-v1.5是其参数规模最大的一个,有3.26亿参数,英文版。完全开源。在MTEB和C-MTEB上得分都非常高。


1.5版本的bge-large-en-v1.5主要减轻了相似性分布问题,并加强了无需指令的检索能力。


该模型最高输入512个tokens,输出的向量维度是1024。

欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送

BGE-Large-en-v1.5所属的领域
自然语言处理

自然语言处理

Natural Language Process

35个资源

BGE-Large-en-v1.5相关的任务
文本嵌入

文本嵌入

Embedding

35个资源