一、UnitBox(DATASET:FDDB,人脸检测)
Abstract
传统的目标框含有四个独立的坐标变量,丢失了相互之间的信息,导致AP下降
Unit Box 提出了一种新的 IoU 损失函数,将四个变量作为一个整体预测
Introuductin
过分割方法计算量大
Faster RCnn 依赖于预先设计好的anchor,对小目标无能为力
DenseBox 不能对目标框四个变量进行联合预测,需要在图像金字塔上预测,效率低
本文提出UnitBox,使用全卷积网络,精度更高,速度更快
Iou Loss Layer & L2 Loss layer
L2 Loss
L2 将坐标信息作为独立变量预测,违背了坐标信息之间是高度相关的事实,其次,L2 没有归一化,所以对小的值不敏感,如果使用图像金字塔会降低效率
noval IOU Loss
[外链图片转存失败(img-UEAhPKdM-1567866004361)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\1560999166259.png)]
NETWORK
基于VGG16 , 移除最后的FC网络换成两个全卷积网络进行回归和分类
训练时有三个输入:原图,置信度热图,边界框热图
- 分类分支:VGG16 stage -4 末尾 + conv(512 * 3 * 3 * 1) + upsample layer (上采样到原图大小) + crop layer(将特征图定位到原图的位置) ,得到单通道的,与原图大小相同的特征图,使用sigmod交叉熵损失在其上生成置信热图
- 回归分支:VGG16 stage-5 末尾 + conv(512 * 3 * 3 * 4) + upsample layer (上采样到原图大小) + crop layer(将特征图定位到原图的位置) ,此外加入ReLU layer 使得输出非负。预测出的边界框坐标被IoU Loss联合优化。
- 回归分支在stage5 因为边界框预测需要更大的感受野。
- 只用了一层卷积层来输出边界框预测,提高了效率
- 在阈值化处理后的置信度热图上用椭圆来拟合人脸
EXPERIMENTS
Effectiveness of IoU Loss
IOU Loss 比 L2 Loss 收敛更快,精度更高,对多尺度的检测效果鲁棒性更好。速度快,12FPS
Performance of UnitBox
state of the art