E5-Large-v2 - EmbEddings from bidirEctional Encoder rEpresentations - Large V2

模型详细情况和参数

E5-Large-v2

模型全称
EmbEddings from bidirEctional Encoder rEpresentations - Large V2
模型简称
E5-Large-v2
模型类型
embedding模型
发布日期
2023-05-19
预训练文件大小
1.34GB
是否支持中文(中文优化)
最高支持的上下文长度
512
模型参数数量(亿)
3.3
代码是否开源
MIT License
预训练结果是否开源
MIT License
预训练结果商用授权情况
免费商用授权
发布论文名(官方博客名)
Text Embeddings by Weakly-Supervised Contrastive Pre-training
论文地址(官方博客地址)
https://arxiv.org/abs/2212.03533
基础模型
无基础模型
发布机构

EmbEddings from bidirEctional Encoder rEpresentations - Large V2 简介

微软发布的文本向量模型,仅支持英文,但是免费商用授权,MTEB排行榜很靠前!

欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送

E5-Large-v2所属的领域
自然语言处理

自然语言处理

Natural Language Process

35个资源

E5-Large-v2相关的任务
文本嵌入

文本嵌入

Embedding

35个资源