MI

Mixtral-8x22B-Instruct-v0.1

Mixtral-8x22B-Instruct-v0.1

发布时间: 2024-04-17441
模型参数
1410.0亿
上下文长度
64K
中文支持
不支持
推理能力

模型基本信息

推理过程
不支持
上下文长度
64K tokens
最大输出长度
暂无数据
模型类型
聊天大模型
发布时间
2024-04-17
模型文件大小
286GB
MoE架构
总参数 / 激活参数
1410.0 亿 / 不涉及
知识截止
暂无数据
推理模式
暂无模式数据

开源和体验地址

代码开源状态
预训练权重开源
Apache 2.0- 免费商用授权
GitHub 源码
暂无GitHub开源地址
在线体验
暂无在线体验地址

官方介绍与博客

API接口信息

接口速度
暂无数据
暂无公开的 API 定价信息。

评测得分

综合评估

共 1 项评测
评测名称 / 模式
得分
排名/总数
MMLU Pronormal
56.33
94 / 109

发布机构

模型解读

MistralAI官方开源了2个版本的模型,一个是基础的预训练结果,一个是针对指令优化的模型。

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码