大模型的发展速度很快,对于需要学习部署使用大模型的人来说,显卡是一个必不可少的资源。使用公有云租用显卡对于初学者和技术验证来说成本很划算。DataLearnerAI在此推荐一个国内的合法的按分钟计费的4090显卡公有云服务提供商仙宫云,可以按分钟租用24GB显存的4090显卡公有云实例,非常具有吸引力~
如何提高大语言模型作为Agent的能力?清华大学与智谱AI推出AgentTuning方案
可能是过去三十年来编程语言最大的革新:新的面向AI的编程语言Mojo发布~
让大模型支持更长的上下文的方法哪个更好?训练支持更长上下文的模型还是基于检索增强?
Python入门的基本概念之包管理——pip与conda的简介对比
彭博社发布金融领域的ChatGPT模型——BloombergGPT
ChatGPT 3.5只有200亿规模的参数?最新微软的论文暴漏OpenAI的ChatGPT的参数规模远低于1750亿!
MistralAI发布了Mixtral 8×7B MoE模型的论文,更详细的参数和对比结果~
Mixtral-8×7B-MoE模型升级新版本,MistralAI开源全球最大混合专家模型Mixtral-8×22B-MoE