m3

m3e-Base

embedding模型

Moka Massive Mixed Embedding - Base

发布时间: 2023-06-07

217
模型参数(Parameters)
1.1
最高上下文长度(Context Length)
512
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

512 tokens

最长输出结果
暂无数据
模型类型

embedding模型

发布时间

2023-06-07

模型预文件大小

409MB

开源和体验地址

代码开源状态
开源不可商用
预训练权重开源
开源不可商用 - 不可以商用
GitHub 源码
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度(满分5分)
暂无数据
接口价格
暂无公开的 API 定价信息。

m3e-Base模型在各大评测榜单的评分

当前尚无可展示的评测数据。

发布机构

Moka Massive Mixed Embedding - Base模型解读

M3E 是 Moka Massive Mixed Embedding 的缩写

  • Moka,此模型由 MokaAI 训练,开源和评测,训练脚本使用 uniem ,评测 BenchMark 使用 MTEB-zh
  • Massive,此模型通过千万级 (2200w+) 的中文句对数据集进行训练
  • Mixed,此模型支持中英双语的同质文本相似度计算,异质文本检索等功能,未来还会支持代码检索
  • Embedding,此模型是文本嵌入模型,可以将自然语言转换成稠密的向量

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat