DeepSeek-V2-236B - DeepSeek-V2-MoE-236B

模型详细情况和参数

DeepSeek-V2-236B

模型全称
DeepSeek-V2-MoE-236B
模型简称
DeepSeek-V2-236B
模型类型
基础大模型
发布日期
2024-05-06
预训练文件大小
472GB
是否支持中文(中文优化)
最高支持的上下文长度
128K
模型参数数量(亿)
2360.0
模型代码开源协议
MIT License
预训练结果开源商用情况
DEEPSEEK LICENSE AGREEMENT - 免费商用授权
在线演示地址
暂无
DataLearnerAI的模型介绍
官方博客论文
暂无
基础模型
无基础模型
发布机构

DeepSeek-V2-MoE-236B 简介

幻方量化旗下大模型企业深度求索开源的全球最大规模的大语言模型,参数数量2360亿,是一个基于混合专家架构的模型,每次推理激活其中的210亿参数。

DeepSeek-V2-236B是在8.1万亿tokens数据集上训练得到,并且官方还开源了一个做过有监督微调和强化学习对齐的版本。

欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送

DeepSeek-V2-236B所属的领域
自然语言处理

自然语言处理

Natural Language Process

35个资源

DeepSeek-V2-236B相关的任务
问答系统

问答系统

Question Answering

35个资源