Mistral NeMo-Base-12B
Mistral NeMo-Base 12B
模型参数
120.0亿
上下文长度
128K
中文支持
不支持
推理能力
模型基本信息
推理过程
不支持
上下文长度
128K tokens
最大输出长度
暂无数据
模型类型
暂无数据
发布时间
2024-07-18
模型文件大小
24.51GB
MoE架构
否
总参数 / 激活参数
120.0 亿 / 不涉及
知识截止
暂无数据
推理模式
暂无模式数据
开源和体验地址
官方介绍与博客
官方论文
DataLearnerAI博客
暂无介绍博客
API接口信息
接口速度
暂无数据
暂无公开的 API 定价信息。
评测得分
当前尚无可展示的评测数据。
发布机构
MistralAI
查看发布机构详情 模型解读
Mistral NeMo-Base-12B是MistralAI开源的最新的120亿参数规模的大语言模型,是其开源的70亿参数规模的Mistral 7B模型的继任者,这意味着未来MistralAI可能不再会开源Mistral 7B,而是用Mistral Nemo代替。
尽管该模型在MMLU得分上没有很突出,但是在推理等任务的表现上效果很好。
DataLearner 官方微信
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
