大模型的发展速度很快,对于需要学习部署使用大模型的人来说,显卡是一个必不可少的资源。使用公有云租用显卡对于初学者和技术验证来说成本很划算。DataLearnerAI在此推荐一个国内的合法的按分钟计费的4090显卡公有云服务提供商仙宫云,可以按分钟租用24GB显存的4090显卡公有云实例,非常具有吸引力~
华盛顿大学提出QLoRA及开源预训练模型Guanaco:将650亿参数规模的大模型微调的显存需求从780G降低到48G!单张显卡可用!
OpenAI发布的GPT-4o能力总结,数学推理能力超过所有模型,价格下降一半!
张华平分词(又名中科院分词/NLPIR分词)的使用(Java版本)
康奈尔大学发布可以在一张消费级显卡上微调650亿参数规模大模型的框架:LLMTune
超越Cross-Entropy Loss(交叉熵损失)的新损失函数——PolyLoss简介
tokens危机到来该怎么办?新加坡国立大学最新研究:为什么当前的大语言模型的训练都只有1次epoch?多次epochs的大模型训练是否有必要?
正则化和数据增强对模型的影响并不总是好的:The Effects of Regularization and Data Augmentation are Class Dependent