开源领域大语言模型再上台阶:Databricks开源1320亿参数规模的混合专家大语言模型DBRX-16×12B,评测表现超过Mixtral-8×7B-MoE,免费商用授权!

标签:#DBRX##MoE##混合专家大模型# 时间:2024/03/27 22:34:43 作者:小木

欢迎大家关注DataLearner官方微信,接受最新的AI技术推送