Fast R-CNN 论文阅读

Fast R-CNN 论文阅读

这里写图片描述

0.简介

R-CNN算法很大程度上提高了detection的效果,本文在R-CNN的基础上进行改进,在训练预测速度上有较大提升的同时也带了精度的提升。具体的:

-借鉴并改进了SPPNet的共享卷积层计算思想,提出了ROI pooling,这样做可以在精修的时候对卷积的部分也进行参数的调整,也带来了最终结果的提升。
- 将SVM分类器换成softmax,在RCNN中也提到了这样做可以提升速度
- 将bounding box regression整合到网络
-不需要保存feature,节省存储空间(其实这是一个很重要的问题)
这里写图片描述
可以看出,如果提供了预训练的卷积参数与proposals,剩余的部分被作者整合到了一起,在精修时是一个端到端的训练(ROI pooling 可以bp)。

1. Fast-RCNN 框架

借图
这里写图片描述
可以看出,经过ROI Pooling 以及多任务,网络可以进行image wise的训练。

RoI pooling layer: roi_pool层将每个候选区域(CxHxW)均匀分成M×N块,对每块进行max pooling。将特征图上大小不一的候选区域转变为大小统一的数据,送入下一层。 具体实现就是设输出大小Cxhxw,固定pooling的kernel size设置成(H/h, W/w),步长也是一样。
bp过程:

Lxi=rjI(i=i(r,j))Lyr,j∂L∂xi=∑r∑jI(i=i∗(r,j))∂L∂yr,j

最简单的理解就是对于ROI 之间的一个Max pooling bp的加和,可以想想SPPNet中每个ROI单独计算,那对应到整图就是这个加和,SPPNet 不需要对CNN进行精修,故而不会涉及到这个问题。这样做带来的问题是对于一个Batch,所有的ROI出自同一张图,但是作者指出这样不会导致结果下降。
Multi-task loss:对于分类问题会bb regression部分的的整体损失定义为:
L(p,u,tu,v)=Lcls(p,u)+λI(u1)Lloc(tu,v)L(p,u,tu,v)=Lcls(p,u)+λI(u⩾1)Lloc(tu,v)

其中第一项为分类损失,采用log loss,第二项为归一化坐标损失,采用smoothL1 Loss,相比L2 loss,不需要精心的调节来防止梯度爆炸。这就构成了一个单步训练的多任务网络。
Truncated SVD for faster detection:利用SVD来减少全连接的计算,主要是因为每张图中选了很多的ROI,导致全连接部分计算耗时很大,作者采用SVD来平衡速度与精度。最终的计算量由 uvuv减少到了 t(v+u)t(v+u)

实验结果

如下表所示:
这里写图片描述
速度对比:
这里写图片描述
文中最后得到一些结论,Multi-task训练可以提高分类结果,在FRCN中,softmax要好于SVM,鼓励类间竞争,RCNN中的结果有区别。
并不是proposals越多越好,越让整个网络趋近与端到端越好回头想想,现在只剩下proposal这一块没放进网络了,所以为了加速整合R-CNN各个步骤,更趋近端到端的训练可以提高结果,从而达到速度与效果的双赢。

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值