De

DeepSeek-V2-236B

基础大模型

DeepSeek-V2-MoE-236B

发布时间: 2024-05-06

477
模型参数(Parameters)
2360.0
最高上下文长度(Context Length)
128K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

128K tokens

最长输出结果
暂无数据
模型类型

基础大模型

发布时间

2024-05-06

模型预文件大小

472GB

开源和体验地址

代码开源状态
预训练权重开源
DEEPSEEK LICENSE AGREEMENT - 免费商用授权
GitHub 源码
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
暂无官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度(满分5分)
暂无数据
接口价格
暂无公开的 API 定价信息。

DeepSeek-V2-236B模型在各大评测榜单的评分

当前尚无可展示的评测数据。

发布机构

DeepSeek-V2-MoE-236B模型解读

幻方量化旗下大模型企业深度求索开源的全球最大规模的大语言模型,参数数量2360亿,是一个基于混合专家架构的模型,每次推理激活其中的210亿参数。

DeepSeek-V2-236B是在8.1万亿tokens数据集上训练得到,并且官方还开源了一个做过有监督微调和强化学习对齐的版本。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat