大模型的发展速度很快,对于需要学习部署使用大模型的人来说,显卡是一个必不可少的资源。使用公有云租用显卡对于初学者和技术验证来说成本很划算。DataLearnerAI在此推荐一个国内的合法的按分钟计费的4090显卡公有云服务提供商仙宫云,可以按分钟租用24GB显存的4090显卡公有云实例,非常具有吸引力~
国产MoE架构模型大爆发!深圳元象科技XVERSE开源256亿参数MoE大模型XVERSE-MoE-A4.2B,评测结果接近Llama1-65B
国产全球最长上下文大语言模型开源:XVERSE-13B-256K,一次支持25万字输入,免费商用授权~
检索增强生成中的挑战详解:哪些因素影响了检索增强生成的质量?需要如何应对?
推荐系统之概率矩阵分解的详细推导过程(Probabilistic Matrix Factorization,PMF)
大模型泛化能力详解:大模型泛化能力分类、泛化能力来源和泛化研究的方向
为什么最新的大语言模型(如ChatGPT)都使用强化学习来做微调(finetuning)?
预训练模型编程框架Transformers迎来重磅更新:Transformers Agents发布,一个完全的多模态AI Agent!