m3e-Base - Moka Massive Mixed Embedding - Base

模型详细情况和参数

m3e-Base

模型全称
Moka Massive Mixed Embedding - Base
模型简称
m3e-Base
模型类型
embedding模型
发布日期
2023-06-07
预训练文件大小
409MB
是否支持中文(中文优化)
最高支持的上下文长度
512
模型参数数量(亿)
1.1
模型代码开源协议
开源不可商用
预训练结果开源商用情况
开源不可商用 - 不可以商用
模型GitHub链接
https://github.com/Moka-AI
模型HuggingFace链接
https://huggingface.co/moka-ai/m3e-base
在线演示地址
暂无
DataLearnerAI的模型介绍
官方博客论文
M3E Models
基础模型
无基础模型
发布机构

Moka Massive Mixed Embedding - Base 简介

M3E 是 Moka Massive Mixed Embedding 的缩写

  • Moka,此模型由 MokaAI 训练,开源和评测,训练脚本使用 uniem ,评测 BenchMark 使用 MTEB-zh
  • Massive,此模型通过千万级 (2200w+) 的中文句对数据集进行训练
  • Mixed,此模型支持中英双语的同质文本相似度计算,异质文本检索等功能,未来还会支持代码检索
  • Embedding,此模型是文本嵌入模型,可以将自然语言转换成稠密的向量

欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送

m3e-Base所属的领域
自然语言处理

自然语言处理

Natural Language Process

35个资源

m3e-Base相关的任务
文本嵌入

文本嵌入

Embedding

35个资源