《论文阅读》Deep Spatial Gradient and Temporal Depth Learning for Face Anti-spoofing

留个笔记自用

Deep Spatial Gradient and Temporal Depth Learning for Face Anti-spoofing

做什么

在这里插入图片描述
Face Anti-spoofing人脸反欺骗,判断捕捉到的人脸是真实人脸,还是伪造的人脸攻击(如彩色纸张打印人脸图,电子设备屏幕中的人脸数字图像以及面具 等)

做了什么

首先先理解一下真实人脸和伪造人脸的区别
在这里插入图片描述
这里是用的sobel算子计算的空间梯度幅度图,很明显的看出在RGB图像中,肉眼很难看出两者哪个是真人哪个是假人,而在生成的空间梯度幅度图中两者的区别很明显。
在这里插入图片描述
而在时间领域上进行切入(即帧序列),在相机不动的情况下,真实人脸和虚假人脸的立体信息也是有很大差别的,正常情况下,人脸鼻子到右耳的角度α变小后,人脸鼻子到左耳的角度β会变大,而假图像中,α变小,β也可能会变小,直观地说,活人脸的图像包含类似人脸的深度,而印刷和重放载体中的欺骗人脸的图像只有平面深度。
于是乎,这里假设空间细粒度特征和时间特征均会对其影响。

怎么做

在这里插入图片描述
整个结构非常复杂,整体的功能就是输入Nf长的序列帧,然后直接输出深度图。
先了解组成这一大结构的小模块。
首先是Residual Spatial Gradient Block (RSGB)模块,这个模块的主要功能是获取细粒度的空间细节
在这里插入图片描述
这里的Gradient Magnitude使用的是经典的sobel算子,即
在这里插入图片描述
这里的x指的就是input的图像或者feature,这一步是为了获取它的梯度幅度信息,上文也提到过,然后再结合上3×3的卷积提取input的空间局部语义特征,最后就呈现出这样的公式
在这里插入图片描述
这里x’指的是input的x经过1×1卷积调整channel后的结果,N指的是BN而φ指的是relu
然后是第二个重要模块Spatio-Temporal Propagation Module(STPM)时空传播模块,这个模块由两个部分组成,一个是STSTB部分,一个是ConvGRU部分。这个模块的主要作用是用于多帧的时空估计。
在这里插入图片描述
在这里插入图片描述
STSTB主要由五个输入所组成,分别是当前特征Fl(t),特征Fl(t)的sobel算子结果即幅度信息图,Δt时间后的特征Fl(t+Δt)的sobel算子结果和特征Fl(t+Δt)与Fl(t)的相减,还有上一层STSTB的迭代结果,当然这里的1×1卷积也是为了控制通道数,由这五个输入进行整合后得到的输出结果称之为STSTB的feature,这里视为包含了空间细节和时空时序信息的feature,即文主旨
然后是ConvGRU,这就是非常普通的了,值得注意的是这里的迭代时序是纵向的而不是横向的,公式👇
在这里插入图片描述
然后是最后一小部分refine部分
在这里插入图片描述
这里就是为了再度结合时序的关系,将每个时刻输出的深度图都需要经过前面每一帧的深度图进行结合,这里的公式也很好理解👇,α越大表示时序内容越重要,Dsingle即当前时刻输出的深度图
在这里插入图片描述
然后是训练的LOSS
首先是最简单的LEDL
在这里插入图片描述
这里的Dp是预测的深度图,而DG是GT深度图,这个LOSS显而易见是为了使深度图与GT相似
然后是最重要的一个LOSS
LCDL即Contrastive Detph Loss
在这里插入图片描述
这个LOSS是对预测的深度图和GT的深度图的attention之间的LOSS,具体方法是使用8种不同的卷积核获取图片的attention结果,图中3×3的卷积核黄色是-1,紫色是1,白色是0
在这里插入图片描述
这里的KCDL便是卷积核,DP和DG与上面相同,将卷积核作用后的attention feature进行逐元素对比后得到最后的结果,这个LOSS可以理解为提高不同对象之间的距离关系
接下来是Lbinary
在这里插入图片描述
这里的BG是二进制的GT,即是真人脸还是欺骗人脸,Davg是前面每一帧D的平均值,fcs是普通的全连接层和softmax,最后输出的是跟BG相同的类别表示
然后将所有的LOSS整合
在这里插入图片描述

总结

1.从时间和空间角度进行切入的又一例子,但其实这样输入的就不是单张图片,感觉上算是加强输入换来的好结果
2.Contrastive Depth Loss是个新活,在细节粒度上哪里都能用

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
Image super-resolution (SR) is the process of increasing the resolution of a low-resolution (LR) image to a higher resolution (HR) version. This is an important task in computer vision and has many practical applications, such as improving the quality of images captured by low-resolution cameras or enhancing the resolution of medical images. However, most existing SR methods suffer from a loss of texture details and produce overly smooth HR images, which can result in unrealistic and unappealing results. To address this issue, a new SR method called Deep Spatial Feature Transform (DSFT) has been proposed. DSFT is a deep learning-based approach that uses a spatial feature transform layer to recover realistic texture in the HR image. The spatial feature transform layer takes the LR image and a set of HR feature maps as input and transforms the features to a higher dimensional space. This allows the model to better capture the high-frequency details in the image and produce more realistic HR images. The DSFT method also employs a multi-scale approach, where the LR image is processed at multiple scales to capture both local and global features. Additionally, the model uses residual connections to improve the training process and reduce the risk of overfitting. Experimental results show that DSFT outperforms state-of-the-art SR methods in terms of both quantitative metrics and visual quality. The method is also shown to be robust to different noise levels and image degradation scenarios. In summary, DSFT is a promising approach for realistic texture recovery in image super-resolution. Its ability to capture high-frequency details and produce visually appealing HR images makes it a valuable tool for various applications in computer vision.

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值