论文阅读:Deformable ConvNets v2

论文地址:http://arxiv.org/abs/1811.11168

作者:pprp

时间:2019年5月11日

0. 摘要

DCNv1引入了可变形卷积,能更好的适应目标的几何变换。但是v1可视化结果显示其感受野对应位置超出了目标范围,导致特征不受图像内容影响(理想情况是所有的对应位置分布在目标范围以内)。

为了解决该问题:提出v2, 主要有

  1. 扩展可变形卷积,增强建模能力
  2. 提出了特征模拟方案指导网络培训:feature mimicking scheme

结果:性能显著提升,目标检测和分割效果领先。

1. 简介

Geometric variations due to scale, pose, viewpoint and part deformation present a major challenge in object recognition and detection.

目标检测一个主要挑战:尺度姿势视角部件变形引起的几何变化

v1 引入两个模块:

  • Deformable Convolution : 可变形卷积
    • 通过相对普通卷积基础上添加的偏移解决
  • Deformable RoI pooling : 可变形 RoI pooling
    • 在RoI pooling 中的bin学习偏移

为了理解可变形卷积,进行了可视化操作:

  • samples for an activation unit tend to cluster around the object on which it lies.

  • 激活单元样本点聚集在目标附近

  • 但是覆盖范围不够精确,超出the area of interest

由此提出DCNv2, 具有增强建模的能力,可用于学习可变形卷积

with enhanced modeling power for learning deformable convolutions.

添加了两种互补的模式:

  • 更广泛应用可变形卷积,在更多层上使用可变形卷积
  • 在原有基础上不仅加上偏移(offset),而且加上幅值(amplitude)的控制

为了充分利用可变形卷积提取的信息,吸取知识蒸馏的手段,进行培训。

  • 教师网络:R-CNN, 针对裁剪内容进行分类的一个网络,防止学习不在目标范围以外的内容
  • 学生网络:Faster R-CNN

2. 可变形卷积行为分析

2.1 空间支持可视化

可视化三个内容:

  1. 有效感受野 : 可视化感受野
  2. 有效采样位置: 对采样点求梯度,然后可视化
  3. 误差界限显著性区域 : 参考显著性分析理论,进行可视化

2.2 可变形网络空间支持

1161281-20190511101418602-1561029259.png

Faster R-CNN中Conv1-Conv4使用在Head中的,Conv5使用在Classification network上

1161281-20190511101404528-1873079159.png

ResNet-50 Conv5里边的3$\times​$3的卷积层都使用可变形卷积替换。Aligned RoI pooling 由 Deformable RoI Pooling取代,当offset学习率设置为0,那么Deformable RoI Pooling就退化为Aligned RoI Pooling。 ps: 这是V1中的操作。

1161281-20190511101345305-447995547.png

从中观察到:

  1. 常规卷积可以一定程度上模拟几何变化,通过网络权重做到的
  2. 可变形卷积模拟几何变化能力显著提升,但是不够精确。

3. 更多可变形卷积层

v2 中进行改进的部分主要有三点

3.1 使用更多的可变形卷积

在Conv3, Conv4, Conv5中所有的3$\times​$3的卷积层全部被替换掉。对于pascal voc简单数据集,堆叠三层以上就会饱和。

3.2 在DCNv1基础(添加offset)上添加幅值参数

回顾一下DCNv1:

1161281-20190511101328895-1156277457.png

R 是相当于3$\times$3的kernel, \(p_0\)是当前中心点,\(p_n\)枚举每一个点。

1161281-20190511101317214-100962202.png

可见,在普通卷积基础上,offset \(\Delta p_n​\)是主要改进点。

那DCNv2主要改了哪些地方?

1161281-20190511101303916-2002871595.png

在v1基础上,添加了\(\Delta m_k\), 一个控制幅值变化的量。

ROI pooling是如何改进的?

先看Faster R-CNN中的ROI Pooling:

1161281-20190514120644900-1325393600.png

然后先看DCNv1的Deformable RoI Pooling

1161281-20190511101250418-2064293572.png

1161281-20190511101241297-471491522.png

主要是添加了offset fields \(\Delta p_{ij}\) 来控制偏移部分。

DCNv2的Deformable RoI Pooling也是将幅值引入,如下图:

1161281-20190511101228691-17683989.png

类似的也添加了幅值变量,在训练的过程中进行学习。

3.3 R-CNN Feature Mimicking

1161281-20190511101211391-26727953.png

采用了类似知识蒸馏的方法,用一个R-CNN分类网络作为teacher network 帮助Faster R-CNN更好收敛到目标区域内。

得到ROI之后,在原图中抠出这个ROI,resize到224x224,再送到一个RCNN中进行分类,这个RCNN只分类,不回归。然后,主网络fc2的特征去模仿RCNN fc2的特征,实际上就是两者算一个余弦相似度,1减去相似度作为loss即可

代码

GitHub几个源码

  1. <https://github.com/msracver/Deformable-ConvNets> 官方提供的版本,有DeepLab, Faster R-CNN, FPN, R-FCN等。源码使用的是mxnet。

  2. https://github.com/open-mmlab/mmdetection 集成了可变形卷积,源码使用的是pytorch。

  3. https://github.com/ChunhuanLin/deform_conv_pytorch 测试deform_conv_V1的准确度的demo.py,源码使用的是pytorch。
  4. https://github.com/4uiiurz1/pytorch-deform-conv-v2一个简单版本的DCNv2 ,源码使用的是pytorch
  5. https://github.com/chengdazhi/Deformable-Convolution-V2-PyTorch/tree/pytorch_1.0.0 Pytorch 1.0 最新的完整的DCNv2

参考文献

https://blog.csdn.net/u013841196/article/details/80713314

http://arxiv.org/abs/1811.11168

https://www.cnblogs.com/jiujing23333/p/10059612.html

https://www.jianshu.com/p/23264e17d860

转载于:https://www.cnblogs.com/pprp/p/10847834.html

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值