在过去的两年中,视频生成技术经历了惊人的进步,尤其是短视频的创作。然而,制作超过一分钟的高质量、风格统一的超长视频仍然是一项巨大的挑战。对此,上海人工智能实验室联合南京大学、复旦大学、南洋理工大学S-Lab以及英伟达等机构,共同推出了LongVie框架,系统性解决了这一领域中的核心问题。
LongVie的目标是让超长视频的生成变得更加可控和一致。团队发现,传统的视频生成模型在处理长视频时,常常面临时序不一致和视觉退化等难题。前者主要表现为画面细节与内容不连贯,后者则指随着视频时长的增加,画面颜色和清晰度的下降。
为了解决这些问题,LongVie从“控制信号”和“初始噪声”两个方面入手。首先,团队提出了“控制信号全局归一化”策略,这意味着在生成视频时,不再只在单一片段内进行归一化,而是统一整个视频段的控制信号,从而提升跨片段的连贯性。其次,他们引入了“统一噪声初始化”策略,确保各个片段共享同一初始噪声,这样可以从源头上减少不同片段之间的视觉漂移。
在解决视觉退化问题上,LongVie采用了多模态精细控制方法。单一模态的控制常常无法提供稳定的约束,而LongVie结合了密集控制信号(如深度图)和稀疏控制信号(如关键点),并引入退化感知训练策略,使得模型在处理长视频时,能够保持更高的画质和细节。
此外,LongVie还推出了LongVGenBench,这是首个专为可控超长视频生成设计的基准数据集,包含100个超过1分钟的高分辨率视频,旨在推动该领域的研究与评测。根据定量指标和用户评测结果,LongVie在多个评估上超越了现有技术,赢得了用户的高度偏好,达到了SOTA(
随着LongVie框架的问世,超长视频生成将迎来新的时代,创作者们将能够在更大的自由度下实现自己的创意。
项目地址:https://vchitect.github.io/LongVie-project/