神笔马良版Sora!阿里提出全新DiT视频生成模型,实现精准轨迹控制

394dd766dcee8b47e018e1e423bca13c.gif

cbd6ecacfb4f7d1d1880f02777655f94.png

背景

视频生成模型最近取得了显著进展。例如,OpenAI 的 Sora 和国内的 Vidu、可灵等模型,通过利用 Diffusion Transformer 的扩展特性,不仅能够满足各种分辨率、尺寸和时长的预测要求,同时生成的视频更符合物理世界的表现。视频生成技术需要在一系列图像中创造一致的运动,这凸显了运动控制的重要性。

当前已有一些优秀的方法如 DragNUWA 和 MotionCtrl 已经实现了轨迹可控的视频生成,但这些方法受限于传统 U-Net 去噪模型,大多只能生成 16 帧长度、固定低分辨率的视频,难以应对长距离轨迹。此外,如果轨迹过于不规则或存在偏移过大等情况,这些方法十分容易出现运动模糊、外观失真和不自然的运动如漂移闪现等。

为了解决这些问题,阿里云提出了一种基于 DiT 架构的轨迹可控视频生成模型  Tora。Tora 能够根据任意数量的物体轨迹,图像和文本条件生成不同分辨率和时长的视频,在 720p 分辨率下能够生成长达 204 帧的稳定运动视频。值得注意的是,Tora 继承了 DiT 的 scaling 特性,生成的运动模式更流畅,更符合物理世界。

ed2c7f1b550c6ab89d67e3cae0a665f9.png

论文链接:

https://arxiv.org/abs/2407.21705

项目主页:

https://ali-videoai.github.io/tora_video/

f4c2bec17505ffba882ee10cca72a866.png

方法介绍

2.1 Tora整体结构

如下图所示,Tora 包括一个 Spatial-Temporal Denoising Diffusion Transformer,(ST-DiT,时空去噪扩散变换器)、一个 Trajectory Extractor(TE,轨迹提取器)和一个 Motion-guidance Fuser(MGF,运动引导融合器)。

e3241a5d5166f4dc7f223d90e08732ac.png

Tora 的 ST-DiT 继承了 OpenSora v1.2 的设计,将输入视频在时空维度上压缩成 Spacetime visual patches(时空视觉补丁),再通过交替的 spatial transformer block(空域变换器块) 和 temporal transformer block(时域变换器块)进行噪声预测。

为了实现用户友好的轨迹控制,TE 和 MGF 将用户提供的轨迹编码为多层次的 Spacetime motion patches(时空运动补丁),再通过自适应归一化层将这些 patches 无缝整合到每个 DiT block中,以确保生成视频的运动与预定义的轨迹一致。

2.2 Trajectory Extractor

Sora 的技术报告中指出,visual patches(视觉补丁)是一种高度扩展且有效的表示方式。为了将高维的视频数据表示为 visual patches,Sora 将原始视频在时间和空间上均进行了压缩。这是 Sora 类的 DiT 算法能够生成比 U-Net 方法更长视频的关键。现有的 U-Net 方法往往通过注入两帧间的运动向量来控制运动轨迹,在时域上没有任何的潜在嵌入编码,这在 DiT 架构中并不适用。

为了将运动轨迹信息与 visual patches 配对,Tora 的轨迹提取器采用了一个 3D motion VAE(运动变分自编码器),将轨迹向量嵌入到与 visual patches 相同的潜在空间中,确保连续帧之间的运动信息得以保留和传递。为了利用已有的 3D VAE 权重,轨迹位移通过流可视化的方案转换到 RGB 域,Tora 进一步对 RGB 轨迹位移引入高斯滤波以减轻发散问题。

RGB 轨迹位移图将作为 3D motion VAE 的输入,生成 motion patches。Tora 的 3D motion VAE 参考了谷歌提出的 Magvit-v2 架构并取消了码本压缩设计,通过 3D 因果卷积提取丰富的时空运动补丁。如上图右侧所示,轨迹提取器继而通过堆叠的卷积块处理这些 motion patches,提取出分层次的运动特征,从而捕捉更复杂和细致的运动模式。

2.3 Motion-guidance Fuser

feeb8679f02fce2dc5ede913a04e10ca.png

有了与 visual patches 共享特征空间的运动特征后,下一步需要将多层次的运动特征引入到相应的 DiT 块中,使生成的运动能够遵循预定义的轨迹,同时不影响原有的视觉效果。Tora 参考了 transformer 的多种特征注入结构,如上图所示,Motion-guidance Fuser 实验了包括额外通道连接、自适应归一化和交叉注意力三种架构。

实验结果显示,自适应归一化在视觉质量和轨迹跟随程度方面表现最佳,同时计算效率最高。自适应归一化层能够根据多样化的条件(文本 & 轨迹 & 图像)动态调整特征,确保视频生成的时间一致性。这在注入运动线索时尤为重要,能够有效维持视频运动的连续性和自然性。

2.4 训练数据处理与策略

为了训练 Tora 模型,需要带有描述和运动轨迹的注释视频。Tora 在 OpenSora 的数据处理流程基础上进行了改进,以更好地获取物体轨迹。结合 motion segmentation(运动分割)结果和 flow score(光流分数),Tora 移除了主要包含摄像机运动的实例,从而提高了对前景物体轨迹的跟随准确率。

对于某些剧烈运动的视频,考虑其存在严重的光流偏差,它们以(1 − score/100)的概率被保留。筛选后的视频采用 PLLaVA13B 生成视频描述。Tora 的训练视频来源于高质量的互联网视频数据(如 Panda70M、pixabay 和 MixKit)以及公司内部数据。

为了支持任意数量的视觉条件(visual condition)引导,Tora 在训练期间随机选取 visual patches,并对其取消加噪处理。在运动条件训练方面,Tora 遵循 MotionCtrl 和 DragNUWA 的两阶段训练策略。第一阶段从训练视频中提取密集光流作为运动轨迹,提供了丰富的信息,加速了运动学习过程。第二阶段根据 motion segmentation 结果和 flow score,随机采样 1 到 N 条目标物体的轨迹样本,从而能够灵活地使用任意轨迹进行运动控制。

f323f1dd4e41b385e9ccf870e2ec7a34.png

实验

3.1 实现细节与测试数据

Tora 基于 OpenSora v1.2 权重,使用分辨率从 144p 到 720p、帧数从 51 帧到 204 帧不等的视频进行训练。为平衡不同分辨率和帧数的训练 FLOP 和所需内存,批次大小调整为 1 到 25。训练过程分为两个阶段,首先使用密集光流进行 2 个 epoch 的训练,然后使用稀疏光流进行 1 个 epoch 的微调。在推理过程中,精选了 185 个包含多样化运动轨迹和场景的长视频片段,作为评估运动可控性的新基准。

3.2 对比实验结果

7b894f79c619ef7808efb21bf0d441ad.png

作者团队将 Tora 与当前流行的运动引导视频生成方法进行对比,在 16、64 和 128 帧三个设置下评估,所有视频分辨率均为 512×512,以确保公平对比,测试轨迹依据视频帧数进行相应的切分。

对于大多数基于 U-Net 的方法采用顺次推理方式,即前一个批次生成的最后一帧作为当前批次的条件。在 U-Net 常用的 16 帧设置下,MotionCtrl 和 DragNUWA 与提供的轨迹对齐效果较好,但仍不如 Tora。随着帧数增加,基于 U-Net 的方法出现严重地误差累计传播,导致后续序列中出现变形、模糊或物体消失问题。

相反,Tora 由于集成了 transformer 的 scaling 能力,对帧数变化表现出高度鲁棒性,生成的运动更平滑且符合物理世界规律。在 128 帧测试下,Tora 的轨迹准确度比其他方法高出 3 至 5 倍。作者团队提供了 Tora 不同分辨率和时长下的轨迹误差分析,显示 Tora 随时长增加仅表现出逐渐的误差增加,这与 DiT 模型在延长视频时质量下降的趋势一致,这表明 Tora 在更长时间内保持了有效的轨迹控制。

ee22d0003cb69709d0fdfcd8985f877c.png

● 更多实验结果

下方视频为 16:9 尺寸下的单轨迹对应多文本实例效果 。

下方视频为 9:16 尺寸下的单轨迹对应多文本实例与 1:1 尺寸下的单图像对应多轨迹实例效果。

更多阅读

47c99844c155784fce2901b2d04f2d5b.png

1ec97b3ca25fc933798ec9dbdf88c4a7.png

f10e2eeb2b6a82c5e3d35d6b80d40b19.png

a2217644eab9215308407c965405ffce.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

838a57faa77ee1bed8825e140feceef5.png

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

·

·

c8d69224f50f80ff0ae1fd07438371ce.jpeg

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值