CVPR 2024 | MotionEditor:首个面向动作编辑的视频扩散模型

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【Mamba/多模态/扩散】交流群

添加微信:CVer5555,小助手会拉你进群!

扫描下方二维码,加入CVer学术星球!可以获得最新顶会/顶刊上的论文idea和CV从入门到精通资料,及最前沿应用!发论文/搞科研/涨薪,强烈推荐!

7b3335fd1880311dbd22ea0d59becdc6.jpeg

f7a0fbc4956fbc706c9335240af90b73.png

MotionEditor: Editing Video Motion via Content-Aware Diffusion

https://francis-rings.github.io/MotionEditor/

代码:

https://github.com/Francis-Rings/MotionEditor

1. 简介

尽管扩散模型在图像和视频编辑领域取得了显著的成功,但现有的工作主要集中在纹理编辑,即对视频中人物的属性、视频背景和视频风格进行编辑,尚未考虑到对视频中最独特、最鲜明的运动信息进行编辑。在本文中,我们首次探索了对视频动作的编辑,即给定参考视频和提示,我们的目标是对源视频的人物动作进行编辑,使其与参考视频中的人物动作保持一致,并在此过程中保留人物的外观信息。

为此,我们提出了MotionEditor,首次利用扩散模型实现了视频运动信息的编辑,如图1所示。MotionEditor首先针对原始视频进行单样本学习(one-shot learninig)以保留原始视频的纹理特征。具体地,针对ControlNet缺乏时序一致性的建模能力的难题,我们设计了运动适配器以增强时序建模能力及对姿态信号的控制能力,从而实现姿态信息与外观信息的高效交互,以保留原始视频的外观信息。在推理时,给定目标视频,我们设计了一种骨架对齐算法以缓解源视频姿态骨架和目标视频姿态参考骨架之间的大小和位置差异,从而将目标视频的动作更好地迁移到原始视频中。我们还设计了基于两分支架构(重建和编辑分支)的注意力注入机制,以保留源视频中人物和背景信息,并通过分支的交互大幅提升了生成质量。

84cdf45a9897076f40772134d57f5dce.png    

图1.MotionEditor: 一个基于扩散模型的视频编辑方法,可以将给定的参考视频中的运动信息迁移到源视频上。

29467f3da7068f0999df277ba60b8174.gif

ce7740bfbbd54b79292c8141484d331b.gif

2. 方法

2-1. 模型整体架构

如图2所示,MotionEditor首先通过引入额外的时序自注意力层将扩散模型中U-Net的空间Transformer扩展为3D Transformer,并提出了Consistent-Sparse Attention (CS Attention) 以取代扩散模型原始的空间自注意力。为了实现精确的运动编辑并保证时序一致性,我们设计了一个运动适配器对来自U-Net的特征和来自ControlNet的姿态信息进行融合。进而,我们采用单样本学习的策略来训练时序注意模块和运动适配器,以重建源视频输入。    

在推理过程中,给定参考目标视频8b71745159582e195767e198eeac48bc.jpegc4d338d3c4c171626b057b38649d40a9.jpeg的运动信息迁移到源视频,同时保留源视频的外观信息。为此,我们首先设计一种骨架对齐算法,通过考虑位置和大小来减少源视频姿态骨架945490b1ebafb5021c05f27f205d0cf7.jpeg和目标视频姿态参考骨架404d922af28cfd38a04d440219bb35da.jpeg之间的差距,并输出对齐后的目标骨架ce5af853165117d22cc260c0d114469f.jpeg。然后,我们对视频的像素值进行DDIM反演,从而产生潜在噪声作为采样的起点。更重要的是,我们设计了包含重建和编辑两分支的网络结构,并设计了一种高保真注意力注入机制用来实现两分支的交互,从而使生成的视频能够保持原始视频的复杂背景信息和人物的衣服纹理信息。具体地,编辑分支利用目标姿态骨架的特征将运动信息从目标视频迁移到源视频,并基于重建分支的关键外观信息,使生成的编辑视频保留原视频的外观和背景。

6f7800d050dc2510c0292f0fd1d910b0.png

图2.MotionEditor的框架图。在训练阶段,只有运动适配器和U-Net中的时序注意力层是可训练的,在推理阶段,我们首先将源视频和参开视频的人物骨架通过缩放和仿射进行对齐,我们接着构建了一个双分支网络,一个用于重建原视频,一个用于执行视频编辑。运动适配器通过利用来自源视频的潜空间特征(latents)来增强ControlNet的运动信息建模能力,我们同时将来自重建分支的键(K)/值(V)注入到编辑分支中,使模型生成的视频保留原始视频的外观信息。    

2-2. 运动适配器

我们的运动适配器将ControlNet输出的特征作为输入,以实现高效的空间建模。该适配器由

全局建模路径和局部建模路径并行组成,其中全局建模路径包括内容感知交叉注意力模块和时序自注意力建模模块,局部建模路径则使用两个时序卷积块以捕获局部运动特征。

具体地,我们的交叉注意力模块对来自U-Net和ControlNet的特征进行建模,其中查询(Q)来自姿势特征f1bd970ee59b868f4256a2fa6175938e.jpeg,键/值(K/V)来自相应的U-Net生成的潜在表示(latent code)205c98a6f06cd05e087a9fbf7a3376da.jpeg

94e1d1c6995a59a600364a901d1e3c04.png

这样的设计可以使运动适配器捕捉视频潜在空间中的运动线索,进而可以实现动作的编辑,避免外观与姿态不一致导致的冲突。

2-3. 高保真注意力注入机制

尽管我们的运动适配器可以准确地捕捉身体姿势,但它可能会意外地改变视频中人物和背景的外观。因此,我们提出从重建分支到编辑分支的高保真注意力注入机制,从而使编辑后的视频保留源视频中人物和背景的细节。由于前景特征和背景特征耦合程度过高,导致传统的注意力融合方法在模糊区域(即运动区域)质量较不理想。为了解决这个问题,我们通过语义掩码将键(K)和值(V)解耦为前景和背景,通过将分离的键(K)和值(V)从重建分支注入到编辑分支,大幅提升了生成质量。注意力注入机制如图3所示。   

08e9bd1665177b462a05d7f7b3cbf43e.png

图3.推理过程中高保真的注意力注入机制示意图。我们利用原视频的前景掩码来引导在一致稀疏注意力中的键(K)/值(V)解耦合

在介绍注入机制之前,我们首先介绍模型中注意力块的细节。U-Net中的每个注意力块由我们设计的一致稀疏注意力(CS-Attention)、交叉注意力和时序注意力组成。我们利用一致稀疏注意力替换原始U-Net中的空间注意力,以在几乎没有额外计算开销的情况下进行时空建模。具体来说,以重建分支为例,一致稀疏注意力中的查询(Q)由当前帧e2a8c823d5f8f111b03c572eaea1136d.jpeg得到,而键/值是从当前帧和当前帧的上一帧得到的eaf969d06754bbf97133ed16d8d49616.jpega2f72b9209c61053af56b57eb767db25.jpeg。这样的设计可以提高帧间一致性:

658074d7042a2f88cab2ce3d38c10c33.png

其中[.]指的是拼接操作。

在此基础上,我们在解码阶段将重建分支中一致稀疏注意力和时序注意力的键/值注入到编辑分支。具体地,对于一致稀疏注意力,我们使用原视频的背景信息掩码c64c3839018b435e9d51062ad855a896.jpeg来解耦合前景信息和背景信息,即给定重建分支的键71ec32b4a76190d08474f6e63c3523e8.jpeg和值effde32d3a480cae35b4eab741128d66.jpeg,我们利用掩码对原始的键/值(K/V)进行点乘,从而将原始信息解耦合为前景信息和背景信息,即前景(1aaf6db447bce46b7fdf59b915299ae3.jpeg185d3168096d8d6c35a486d8442cde85.jpeg)和背景(f367c7493fe3063d67bb5971a131a59d.jpeg9909199e37b7a1cf2f480af4cd06b32e.jpeg

ef8866a67b87cd37fe166fff3b63be59.png

基于掩码的策略可以使生成视频中的背景和前景内容更为保真,值得注意的是,简单的替换在编辑分支的键/值会导致模型生成的视频中存在大量的动作跳变,因为模型会严重地受到来自源视频中运动信息的影响,因此我们结合源视频的动作信息和生成视频的动作信息以生成更加精准的运动描述,在编辑分支,稀疏注意力的键(K)和值(V)都会被注入到键817231e0e3af049a60b1d5655b960897.jpeg和值 d08d9a965bf65b9939d896b6e32fc44d.jpeg更新。   

6b8ef0614d8068f3ce9fe510bc0213a4.png

其中806a7f2fa1378e0b50aa34fe3f32ac8d.jpegb33b198b46d82b16e1866819bbba8540.jpeg表示在编辑分支的当前帧和上一帧的特征,2834a8c7e1812e168e5ad4b57674bcec.jpeg404230ab1c6a37a832ba28d1c4360e48.jpeg表示在编辑分支中稀疏注意力中原始的键(K)和值(V),4621ceea3df5c8e9f8ee80988b39d78a.jpeg583b8988f384831e5189219f2eeb5dee.jpeg表示来自当前帧的键和值。

在Temporal Attention中的注入机制则简单很多,因为在稀疏注意力中已经执行了局部的空间区域建模,我们直接将来自重建分支的858a293be9bef9d20a48b7b51fcc574d.jpegd48d455d6f89b07b8b3ab155400db314.jpeg注入到编辑分支。

3. 实验

3-1. 视频动作信息编辑

811871bd620dfe6060d8ebdd450fe0a0.png

图4. MotionEditor的视频运动信息编辑效果

652753362b90e2172aad55e0d8824b19.gif

2bbcc0eb9176b79cdac44ec489872b0d.gif

0ce6b26e911b1413b7071f992d50452d.gif

b9408dd8ecaad1d1676f629733403335.gif

b72188bdf92270cfcdf1c0a837307590.gif

3cf1bfe38b130259df6a8d672bb8f3e4.gif

何恺明在MIT授课的课件PPT下载

在CVer公众号后台回复:何恺明,即可下载本课程的所有566页课件PPT!赶紧学起来!

CVPR 2024 论文和代码下载

在CVer公众号后台回复:CVPR2024,即可下载CVPR 2024论文和代码开源的论文合集

Mamba、多模态和扩散模型交流群成立

 
 
扫描下方二维码,或者添加微信:CVer5555,即可添加CVer小助手微信,便可申请加入CVer-Mamba、多模态学习或者扩散模型微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF、3DGS、Mamba等。
一定要备注:研究方向+地点+学校/公司+昵称(如Mamba、多模态学习或者扩散模型+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

 
 
▲扫码或加微信号: CVer5555,进交流群
CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集近万人!

▲扫码加入星球学习
 
 
▲点击上方卡片,关注CVer公众号
整理不易,请点赞和在看
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值