大模型的发展速度很快,对于需要学习部署使用大模型的人来说,显卡是一个必不可少的资源。使用公有云租用显卡对于初学者和技术验证来说成本很划算。DataLearnerAI在此推荐一个国内的合法的按分钟计费的4090显卡公有云服务提供商仙宫云,可以按分钟租用24GB显存的4090显卡公有云实例,非常具有吸引力~
彭博社发布金融领域的ChatGPT模型——BloombergGPT
狄利克雷过程混合模型(Dirichlet Process Mixture Model, DPMM)
tf.nn.softmax_cross_entropy_with_logits函数
Google最新超大模型Pathways:一个会讲笑话的6400亿参数的语言模型
阿里开源全模态大模型Qwen2.5-Omni-7B:支持文本、语音、视频、图像任意模态输入,可以实时生成文本或者语音,文本理解能力接近GPT-4o-mini,开源且免费商用
聊天大模型的输出速度应该是多少?单张显卡最多可以支持多少个人同时聊天?来自贾扬清最新的讨论
大型语言模型的新扩展规律(DeepMind新论文)——Training Compute-Optimal Large Language Models
Python报Memory Error或者是numpy报ValueError: array is too big; `arr.size * arr.dtype.itemsize` 的解决方法