大模型的发展速度很快,对于需要学习部署使用大模型的人来说,显卡是一个必不可少的资源。使用公有云租用显卡对于初学者和技术验证来说成本很划算。DataLearnerAI在此推荐一个国内的合法的按分钟计费的4090显卡公有云服务提供商仙宫云,可以按分钟租用24GB显存的4090显卡公有云实例,非常具有吸引力~
国产开源大模型再添重要玩家:BAAI发布开源可商用大模型Aquila
JetBrains的IDEA打包可执行Jar文件以及maven的依赖的方法
70亿参数规模大模型新选择:Deci开源DeciLM-7B大模型,评测效果远超Llama2-7B,每秒可生成328个tokens。
聊天大模型的输出速度应该是多少?单张显卡最多可以支持多少个人同时聊天?来自贾扬清最新的讨论
语音模型的GPT时刻:MetaAI发布的基础语音大模型Voicebox简介及其模型说明
大型语言模型的新扩展规律(DeepMind新论文)——Training Compute-Optimal Large Language Models