前言:达摩院开源的VideoFusion是为数不多同时开源模型和推理代码的视频生成工作,通过设计噪声分解机制有效提高视频的时空连贯性,在一些关键指标上远超GAN-based方法和2022年谷歌的VDM。更重要的是,Diffusers库以此为基础,写了关键的两个视频生成基础类,堪称行业标准。这篇博客就详细解读一下这篇经典的论文。
目录
贡献概述
以前的方法采用的是标准扩散过程,其中同一视频剪辑中的帧被独立噪声破坏,忽略了内容冗余和时间相关性。本文提出了一种分解扩散过程,通过
前言:达摩院开源的VideoFusion是为数不多同时开源模型和推理代码的视频生成工作,通过设计噪声分解机制有效提高视频的时空连贯性,在一些关键指标上远超GAN-based方法和2022年谷歌的VDM。更重要的是,Diffusers库以此为基础,写了关键的两个视频生成基础类,堪称行业标准。这篇博客就详细解读一下这篇经典的论文。
目录
以前的方法采用的是标准扩散过程,其中同一视频剪辑中的帧被独立噪声破坏,忽略了内容冗余和时间相关性。本文提出了一种分解扩散过程,通过