大模型的发展速度很快,对于需要学习部署使用大模型的人来说,显卡是一个必不可少的资源。使用公有云租用显卡对于初学者和技术验证来说成本很划算。DataLearnerAI在此推荐一个国内的合法的按分钟计费的4090显卡公有云服务提供商仙宫云,可以按分钟租用24GB显存的4090显卡公有云实例,非常具有吸引力~
好东西!Transformer入门神作手把手按行实现Transformer教程The Annotated Transformer2022版本来袭
Targeted Topic Modeling for Focused Analysis(TTM的理解)
OpenAI最新的文本生成图像大模型DALL·E3发布!生成的图像不忽略每一个细节的文本!
截至目前最强的70亿参数大语言模型:开源可商用的RedPajam 7B完全版发布!
重磅!PyTorch官宣2.0版本即将发布,最新torch.compile特性说明!
月之暗面开源了一个全新的160亿参数规模的MoE大语言模型Moonlight-16B:其训练算力仅需业界主流的一半
HuggingFace官方宣布将对GGUF格式的大模型文件增加更多的支持,未来可以直接在HF上查看GGUF文件的元数据信息!
为什么最新的大语言模型(如ChatGPT)都使用强化学习来做微调(finetuning)?
Google开源多模态大模型Gemma3n的正式版:重新定义端侧AI的多模态能力,10B(100亿)参数以下最强多模态大模型,一个月前的预览版正式转正