TPS Motion(CVPR2022)视频生成论文解读


论文: 《Thin-Plate Spline Motion Model for Image Animation》
github: https://github.com/yoyo-nb/Thin-Plate-Spline-Motion-Model

解决问题

问题:
尽管当前有些工作使用无监督方法进可行任意目标姿态迁移,但是当源图与目标图差异大时,对当前无监督方案来说仍然具有挑战。
方法:
本文提出无监督TPS Motion,
1、提出thin-plate spline(TPS)运动估计,以生成更灵活光流,将源图特征迁移至目标图特征;
2、为了补全缺失区域,使用多分辨率遮挡mask进行有效特征融合。
3、额外辅助损失函数用于确保网络各模块分工,使得生成高质量图片;

算法

TPS Motion算法整体流程图如图2所示,
在这里插入图片描述
TPS Motion主要包括以下模块:
1、关键点检测模块 E k p E_{kp} Ekp:生成 K ∗ N K*N KN对关键点用于生成K个TPS变换;
2、背景运动预测 E b g E_{bg} Ebg:估计背景变换参数;
3、稠密运动网络(Dense Motion Network):这是一个hourglass网络,使用 E b g E_{bg} Ebg背景变换及 E k p E_{kp} Ekp的K的K个TPS变换进行光流估计、多分辨率遮挡mask预测,用于指导缺失区域;
4、修复网络(Inpainting Network):同为hourglass网络,使用预测光流扭曲原图特征图,修复每个尺度下特征图缺失区域;

TPS运动估计

1、通过TPS可通过最小扭曲,将原图变换到目标图,如式1, P i X 表示图 X 上第 i 个关键点 P^X_i表示图X上第i个关键点 PiX表示图X上第i个关键点
在这里插入图片描述
E k p E_{kp} Ekp使用 K ∗ N K*N KN个关键点,计算k个tps变换,每个使用N个关键点(N=5),TPS计算如式2, p 为坐标, A 与 w 为式 1 求解到的系数, U 为偏置项 p为坐标,A与w为式1求解到的系数,U为偏置项 p为坐标,Aw为式1求解到的系数,U为偏置项,
在这里插入图片描述
2、背景变换矩阵如式4,其中 A b g A_{bg} Abg由背景运动预测器 E b g E_{bg} Ebg生成;
在这里插入图片描述
3、通过Dense Motion Network将K+1个变换预测contribution map M ~ ∈ R ( K + 1 ) × H × W \tilde M \in R^{(K+1)\times H \times W} M~R(K+1)×H×W,经过softmax得到 M M M,如式5,
在这里插入图片描述
将其与K+1个变换结合计算光流,如式6,
在这里插入图片描述
由于训练初期仅有部分TPS变换起作用,由此导致contribution map有的地方为0,因此训练时容易陷入局部最优;
作者使用dropout使得某些contribution map为0,将式5改为式7, b i 服从伯努利分布,概率为 1 − P b_i服从伯努利分布,概率为1-P bi服从伯努利分布,概率为1P,使得网络不会过度依赖某些TPS变换,训练几个epoch后,作者将其去除;

在这里插入图片描述

4、修复网络(Inpainting Network)的编码器提取原图特征进行变换,解码器进行重构目标图;

多分辨率遮挡Mask

一些论文证明,不同尺度特征图关注区域有区别,低分辨率关注抽象形态,高分辨率关注细节纹理;因此作者在每层进行预测遮挡mask;
Dense Motion Network除了预测光流还预测多分辨率遮挡mask,通过在每层编码器添加一个额外的卷积层实现;
在这里插入图片描述
Inpaintting Network融合多尺度特征生成高质量图像,细节如图3所示;
1、将原图S送入编码器,光流 T ~ \tilde T T~用于变换每层特征图;
2、使用预测的遮挡mask进行遮挡变换后的特征图;
3、使用skip connection与浅层解码器输出concat;
4、通过两个残差网络及上采样层,生成最终图像;

训练损失函数

重构损失:使用VGG-19计算重构损失,如式9;
在这里插入图片描述
同变损失:用于约束关键点检测模块,如式10;
在这里插入图片描述
背景损失:用于约束背景Motion预测器,确保预测更加准确, A b g A_{bg} Abg表示从S到D的背景仿射变换矩阵; A b g ′ A'_{bg} Abg表示D到S的背景仿射变换矩阵,防止预测输出矩阵为0,loss未使用式11,而是式12;
在这里插入图片描述
在这里插入图片描述
扭曲损失:用于约束Inpainting Network,使得估计光流更加可靠,如式13,Ei表示网络第i层编码器;
在这里插入图片描述
整体损失函数如式14
在这里插入图片描述

测试阶段

FOMM有两种模式:标准、相关;
前者使用驱动视频 D t D_t Dt每一帧及S,依据式6估计motion,但当S与D差异大时(比如S与D中人体身材差异大),表现不佳;
后者用于估计 D 1 D_1 D1 D t D_t Dt的motion,将其应用于S,这要求 D 1 D_1 D1与S的pose接近;
MRAA提出一种新模式,通过解耦进行动画,额外训练网络进行预测motion,应用于S,本文使用相同模式;训练shape及pose编码器,shape编码器学习关键点S的shape,pose编码器学习关键点 D t D_t Dt的pose,解码器重构关键点保留S的shape及 D t D_t Dt的pose,训练过程中使用同一视频两帧,其中一帧关键点进行随机变换仿真另一个体的pose;
对于图像动画而言,将S及 D t D_t Dt的关键点送入shape及pose编码器,经过解码器获取重构的关键点,根据式6估计motion。

实验

评估指标
L1表示驱动图与生成图像素L1距离;
Average keypoint distance (AKD)表示生成图与驱动图关键点距离;
Missing keypoint rate (MKR)表示驱动图中存在但是生成图中不存在的关键点比率;
Average Euclidean distance (AED)表示使用reid模型提取生成图与驱动图特征,比较两者之间L2损失;
视频重构结果如表1;
在这里插入图片描述
图6展示图像动画结果,在4个数据集上与MRAA比较,
在这里插入图片描述
表2展示真实用户在连续性及真实性上评价;
在这里插入图片描述
表4展示消融实验结果;
在这里插入图片描述
表3比较不同K对结果影响,FOMM、MRAA使用K=5,10,20;本文方式用2,4,8;
在这里插入图片描述

结论

作者提出的方无监督图像动画方法:
1、通过TPS估计光流,训练初期使用dropout,防止陷入局部最优;
2、多分辨率遮挡mask用于更有效特征融合;
3、设计额外辅助损失;
本文方法取得SOTA,但是当源图与驱动图人物身份极度不匹配时,效果不理想;

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值