Face Paper:Face Attention Network: An Effective Face Detector for the Occluded Faces


人脸检测的性能近期由于深度学习的发展大幅度提高, 然而对于人脸的遮挡问题一直是人脸检测中一个比较有挑战的问题, 这种场景多出现于佩戴口罩、太阳镜和其他人的遮挡等。


这篇文章提出了Face Attention Network (FAN), 有效提升了有遮挡人脸的召回。提出了a new anchor-level attention,增强人脸区域的特征. 结合anchor assign strategy and data augmentation techniques,在WiderFace and MAFA上达到了state-of-the-art的效果。

Base Framework


U-shape的结构能够很好地融合底层丰富的特征信息和High-level的语义信息. 基础结构借鉴RetinaNet(FPN + ResNet). RetinaNet包括两个subnet, 一个用于分类, 另一个用于回归。

分类subnet使用4个 3*3 conv layers (each with 256 filters), followed by a 3×3 convolution
layer with KA filters where K means the number of classes and A means the number of anchors per location.

For face detection K = 1 since we use sigmoid activation, and we use A = 6 in most experiments.

回归subnet terminates 4A conv filters with liner activation.

Attention Network


  1. Anchor Assign Strategy
  2. Attention Function
  3. Data Augmentation

Anchor Assign Strategy

在FAN中,共有5个detector layers,每一个都有特定的scale anchor. 另外, anchor的长宽比都是1和1.5,因为大多数的人脸都接近1:1.5的长宽比. 论文统计了WiderFace人脸的像素大小占比, 用于调整anchors的大小。

Attention Function

为了解决遮挡的问题, 提出了novel anchor-level attention.

The attention supervision information is obtained by filling the ground-truth box.

可以近似为加了一个segment的branch.



Data Augmentation

提出了随机crop策略, 来模拟训练数据中的遮挡.Besides from the random crop dataset
augmentation, we also employ augmentation from random flip and color jitter.



Loss function分为三部分:

多pyramid level的分类, 回归和mask的pixel-wise sigmoid cross entropy.

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值