LaVie
LaVie is an AI model published by 上海人工智能实验室, released on 2023-09-26, for 视觉大模型, with 30.0B parameters, and 2K tokens context length, requiring about 10.04GB storage, under the Apache 2.0 license.
Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology
LaVie是一个基于文本的视频生成模型,它的目标是通过使用预训练的文本到图像(T2I)模型作为基础,来学习生成高质量的视频。这个任务具有很高的期望价值,但同时也面临着挑战,包括同时实现视觉真实性和时间上的连贯性,同时保留预训练T2I模型的强大创造性。为了实现这一目标,LaVie采用了一种集成的视频生成框架,该框架基于级联视频潜在扩散模型,包括基础的文本到视频(T2V)模型、时间插值模型和视频超分辨率模型。
频,它需要不仅在视觉上吸引人,还要在时间上连贯,同时保持预训练的文本到图像(T2I)模型的创造力。为了实现这些目标,LaVie采用了一个独特的集成框架,结合了多个专门的子模块。以下是对这个模型原理的详细说明:
模型架构:LaVie模型的核心是一个级联的视频潜在扩散模型,这种架构包括三个主要部分:
设计理念:
时间上的连贯性:视频不仅要在每一帧中看起来真实和引人入胜,而且还要在时间上流畅连续。时间插值模型正是为了解决这一挑战而设计的,它可以在关键帧之间有效地创建平滑的过渡。
视觉质量和创造力:通过利用先进的T2I模型,LaVie能够在保持视频创造性的同时,确保每一帧的视觉质量。这是因为预训练的T2I模型已经在生成高质量、多样化图像方面表现出色。
高分辨率视频生成:视频超分辨率模型的引入是为了进一步提升视频的视觉效果,特别是在高分辨率视频生成方面。
LaVie使用了Vimeo25M数据集,这是一个专门为视频生成任务设计的大规模、高分辨率的文本-视频数据集。这个数据集的引入对于模型训练和性能提升至关重要,因为它提供了丰富多样的视频内容,帮助模型更好地学习视频生成的各个方面。
通过广泛的实验,LaVie在定量和定性方面都达到了最先进的性能。它能够在多种长视频生成和个性化视频合成应用中表现出其多功能性。
结论方面,LaVie通过利用预训练的T2I模型作为基础,成功地解决了视频生成中的关键挑战,实现了视觉真实性和时间上的连贯性,同时保留了创造性。该模型的创新之处在于其级联扩散模型的架构,以及对时间关系的有效建模。此外,新的Vimeo25M数据集对提高模型性能也起到了关键作用。
LaVie的在线演示地址: https://huggingface.co/spaces/Vchitect/LaVie
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
