华盛顿大学提出QLoRA及开源预训练模型Guanaco:将650亿参数规模的大模型微调的显存需求从780G降低到48G!单张显卡可用!

标签:#fine-tuning##LoRA##QLoRA##大模型微调##模型压缩# 时间:2023/05/25 23:52:47 作者:小木

欢迎大家关注DataLearner官方微信,接受最新的AI技术推送