Jamba-v0.1
Jamba-v0.1 is an AI model published by A21 Labs, released on 2024-03-28, for 基础大模型, with 520.0B parameters, and 256K tokens context length, requiring about 102.9GB storage, under the Apache 2.0 license.
Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology
Jamba是由AI21公司推出的一款创新的人工智能模型,它是基于Mamba结构化状态空间模型(SSM)技术和传统Transformer架构元素的结合。这款模型的发布标志着在大型语言模型(LLM)创新方面的两个重要里程碑:成功地将Mamba与Transformer架构结合,并将这种混合的SSM-Transformer模型推进到生产级别的规模和质量。
文档中没有提供关于Jamba模型训练数据的具体信息。通常,为了训练高质量的语言模型,需要大量的、多样化的文本数据。这些数据可能包括书籍、文章、网页内容等,以确保模型能够理解和生成各种类型的文本。
Jamba模型的发布是AI领域的一个重大突破,它通过结合Mamba和Transformer架构的优势,提供了一个高效、可扩展且性能卓越的解决方案。它的开放权重和即将到来的NVIDIA API集成,为开发者提供了更多的机会来探索和优化这一技术,推动人工智能的进一步发展。随着社区对这个新模型的进一步实验和优化,我们期待Jamba在未来能够达到更高的性能水平。
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
