A21 Labs宣布开源520亿参数的全新混合专家大模型(Mixture of Experts,MoE)Jamba:单个GPU的上下文长度是Mixtral 8x7B的三倍

标签:#Jamba##MoE##混合专家大模型##超长上下文# 时间:2024/03/29 00:04:31 作者:小木

欢迎大家关注DataLearner官方微信,接受最新的AI技术推送
相关博客