大模型的发展速度很快,对于需要学习部署使用大模型的人来说,显卡是一个必不可少的资源。使用公有云租用显卡对于初学者和技术验证来说成本很划算。DataLearnerAI在此推荐一个国内的合法的按分钟计费的4090显卡公有云服务提供商仙宫云,可以按分钟租用24GB显存的4090显卡公有云实例,非常具有吸引力~
财大气粗!英伟达官方AI Playground提供可以免费使用的Stable Diffusion XL、LLaMA2、CLIP等模型
除了Mistral-7B-MoE外,MistralAI还有更强大的模型,未宣布的Mistral-medium比混合专家模型更强!
为什么最新的大语言模型(如ChatGPT)都使用强化学习来做微调(finetuning)?
使用SpringMVC创建Web工程并使用SpringSecurity进行权限控制的详细配置方法
国产MoE架构模型大爆发!深圳元象科技XVERSE开源256亿参数MoE大模型XVERSE-MoE-A4.2B,评测结果接近Llama1-65B
使用LangChain做大模型开发的一些问题:来自Hacker News的激烈讨论~
Copilot Labs插件——基于AI的代码解释和代码翻译神器
手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署