Learning Oracle Attention for High-fidelity Face Completion

1. Motivation

  • 人脸拥有丰富且微妙的纹理特征,不同的人的这些特征各不相同;
  • 传统方法不能处理具有复杂结构和大规模缺失的图像,只能利用底层特征;
  • 一些基于深度学习的方法忽视了不精确的 Attention分数所带来的影响。

2. Approach

2.1 Network Structure

整个网络可以分别为两部分生成器和判别器,生成器部分采用U-Net的结构,判别器采用了PatchGAN。

  • Dual spatial attention with supervision:

上图展示的是这篇文章中的 attention机制(Dual Spatial Attention with Supervision), 在Foreground Background Cross-Attention Module中,通过一系列步骤我们可以得到注意力机制的分数

通过与特征图相乘再相加得到Y

同理,在Foreground Self-Attention Module中

  • Multi-discriminator:

可以看出,除了局部和全局判别器,还有鼻子,嘴巴等判别器。

2.2 Loss function

  • 重构损失:

对局部区域和眼睛,鼻子和嘴巴区域加大惩罚力度。

  • 特征损失:

基于VGG-16的特征损失。

  • 各个判别器的损失:

WGAN的损失加上一个梯度惩罚项。

  • 生成器损失:

  • KL散度损失:

这里对应的就是Attention map的监督机制。

  • 最终损失:

3. Disscussion

我认为这篇文章的主要创新点是设计了一个带有监督的attention机制,一个小的创新点是使用了多个判别器,不过使用多个判别器我也在其他文章中看见过。文章的源代码还没有放出。

4. References

【1】Zhou, Tong, et al. "Learning Oracle Attention for High-fidelity Face Completion." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2020.

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值