E5-Large-v2 - EmbEddings from bidirEctional Encoder rEpresentations - Large V2

模型详细情况和参数

E5-Large-v2

模型全称
EmbEddings from bidirEctional Encoder rEpresentations - Large V2
模型简称
E5-Large-v2
模型类型
embedding模型
发布日期
2023-05-19
预训练文件大小
1.34GB
是否支持中文(中文优化)
最高支持的上下文长度
512
模型参数数量(亿)
3.3
模型代码开源协议
MIT License
预训练结果开源商用情况
MIT License - 免费商用授权
在线演示地址
暂无
DataLearnerAI的模型介绍
基础模型
无基础模型
发布机构

EmbEddings from bidirEctional Encoder rEpresentations - Large V2 简介

微软发布的文本向量模型,仅支持英文,但是免费商用授权,MTEB排行榜很靠前!

欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送

E5-Large-v2所属的领域
自然语言处理

自然语言处理

Natural Language Process

35个资源

E5-Large-v2相关的任务
文本嵌入

文本嵌入

Embedding

35个资源