深度学习经典目标检测实例分割语义分割网络的理解之三 FAST-RCNN

再次感谢@shenxiaolu1984 ,写了一系列关于目标检测深度学习模型的优秀博文,本文主要参考fast-rcnn这篇(大部分照搬过来了,局部加入自己的理解和补充)。

https://blog.csdn.net/shenxiaolu1984/article/details/51036677

继续上一篇RCNN之后,继续介绍FAST-RCNN, 因为RCNN虽然实现了bbox的预测,但是非常缓慢,存在大量的重复运算。

fast-rcnn就是在rcnn基础上进行的改进。

 

改进:Fast RCNN方法解决了RCNN方法三个问题:

问题一:测试慢 
RCNN一张图像内候选框之间大量重叠,提取特征操作冗余。 
本文将整张图像归一化后直接送入深度网络。在邻接时,才加入候选框信息,在末尾的少数几层处理每个候选框。

问题二:训练慢 
原因同上。 
在训练时,本文先将一张图像送入网络,紧接着送入从这幅图像上提取出的候选区域。这些候选区域的前几层特征不需要再重复计算。

问题三:训练所需空间大 
RCNN中独立的分类器和回归器需要大量特征作为训练样本。 
本文把类别判断和位置精调统一用深度网络实现,不再需要额外存储。

以下按次序介绍三个问题对应的解决方法。

 

特征提取网络

基本结构

 

这里写图片描述

roi : reginal of interest

前五阶段是基础的conv+relu+pooling形式,做roi polling时,再输入P个候选区域(图像序号×1+几何位置×4,序号用于训练)。然后得到的feature map 就是(6*6*256*P)大小的conv map。

注:文中给出了大中小三种网络,此处示出最大的一种。三种网络基本结构相似,仅conv+relu层数有差别,或者增删了norm层

 

roi_pool层的测试(forward)

调整大小参照SPP polling 的方法,在roi区域内max pooling或者average polling。将特征图上大小不一的候选区域转变为大小统一的数据,送入下一层。 

SPP 的一篇博文 https://blog.csdn.net/juronghui/article/details/78648806 很经典的思想,以后会还会遇到的。

这里写图片描述

roi_pool层的训练(backward)

首先考虑普通max pooling层。设xixi为输入层的节点,yjyj为输出层的节点。 

∂L∂xi = {0∂L∂yjδ(i,j)=falseδ(i,j)=true

∂L∂xi={0∂L∂yjδ(i,j)=falseδ(i,j)=true

其中判决函数δ(i,j)表示i节点是否被j节点选为最大值输出。不被选中有两种可能:xi不在yj范围内,或者xi不是最大值。

对于roi max pooling,一个输入节点可能和多个输出节点相连。设xi为输入层的节点,yrj为第r个候选区域的第j个输出节点。 

这里写图片描述

∂L∂xi=Σr,jδ(i,r,j)∂L∂yrj

判决函数δ(i,r,j)表示i节点是否被候选区域r的第j个节点选为最大值输出。代价对于xi的梯度等于所有相关的后一层梯度之和。

 

网络参数训练

参数初始化(迁移学习)

网络除去末尾部分如下图,在ImageNet上训练1000类分类器。结果参数作为相应层的初始化参数。 
这里写图片描述

其余参数随机初始化。

分层数据

在调优训练时,每一个mini-batch中首先加入N张完整图片,而后加入从N张图片中选取的R个候选框。这R个候选框可以复用N张图片前5个阶段的网络特征。 

实际选择N=2, R=128。

训练数据构成。

N张完整图片以50%概率水平翻转。 
R个候选框的构成方式如下:

 

 

 

类别比例方式
前景25%与某个真值重叠在[0.5,1]的候选框
背景75%与真值重叠的最大值在[0.1,0.5)的候选框

 

分类与位置调整

数据结构

第五阶段的特征输入到两个并行的全连层中(称为multi-task)。 
这里写图片描述
cls_score层用于分类,输出K+1维数组p,表示属于K类和背景的概率。 
bbox_prdict层用于调整候选区域位置,输出4*K维数组t

代价函数

loss_cls

层评估分类代价由真实分类u对应的概率决定:(这部分我也比较疑惑,为何式子这么简单)

所以补充一下上图中的SoftmaxWithLoss:

参考:https://blog.csdn.net/tianrolin/article/details/52594975

Softmax计算公式(正则化到数值[0, 1]区间)

再用上式计算loss: 根据Cross-Entropy的定义有,

反向传导时,计算偏导 (也因为偏导数很简单,所以计算会很快,大家喜欢用):

 

loss_bbox

loss_bbox评估检测框定位代价。比较真实分类对应的预测参数tu和真实平移缩放参数为v的差别:

 

g为Smooth L1误差,对outlier(离群点)不敏感: 

总代价为两者加权和,如果分类为背景则不考虑定位代价: 

 

源码中bbox_loss_weights用于标记每一个bbox是否属于某一个类

同年作者团队又推出了Faster RCNN,进一步把检测速度提高到准实时,可以参看@shenxiaolu1984 的这篇博客

我也会在 @shenxiaolu1984的博客基础上继续写下一篇Faster-rcnn的剖析。

关于RCNN, Fast RCNN, Faster RCNN这一系列目标检测算法,可以进一步参考作者在15年ICCV上的讲座Training R-CNNs of various velocities

 

 

 

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值