大模型的发展速度很快,对于需要学习部署使用大模型的人来说,显卡是一个必不可少的资源。使用公有云租用显卡对于初学者和技术验证来说成本很划算。DataLearnerAI在此推荐一个国内的合法的按分钟计费的4090显卡公有云服务提供商仙宫云,可以按分钟租用24GB显存的4090显卡公有云实例,非常具有吸引力~
总结一下截止2023年中旬全球主要厂商拥有的GPU数量以及训练GPT-3/LLaMA2所需要的GPU数量
OpenAI秘密武器Q*到底是什么?一个神秘帖子的解密:Q*是一个不同于当前大模型推理方式的新对话生成系统
主题模型结合词向量模型(Improving Topic Models with Latent Feature Word Representations)
康奈尔大学发布可以在一张消费级显卡上微调650亿参数规模大模型的框架:LLMTune
让大语言模型为文本处理提提速:Scikit-learn与LLM的合体Scikit-LLM开源项目发布
2022年9月份最火的10个AI研究——基于GitHub的Star数量排序
GPT-4-Turbo的128K长度上下文性能如何?超过73K Tokens的数据支持依然不太好!
扩散模型是如何工作的:从0开始的数学原理——How diffusion models work: the math from scratch