论文解析——Deep Reinforcement Learning of Region Proposal Networks for Object Detection

Deep Reinforcement Learning of Region Proposal Networks for Object Detection

背景:最近搞完找工作的事情,开始回归到研究论文写大论文的阶段来了。

大论文是我的老本行,虽然找工作没有找这个方向,在研究的兴趣点上来说Object detection是我的point。

 

这篇比较新的文章研究的是利用一种基于深度强化学习的RPN网路做OD(Object Detection)。思路比较新颖,但是不是很容易理解。传统的两阶段目标检测首先需要提取目标特征,获得特征区域,然后继续做区域目标的分类和位置回归,区域生成网络(RPN)采用的是对特征图上设置滑动窗口,每个滑动窗口设定一定比例尺寸的anchor,判断每个anchor中是否是检测目标,从而得到特征区域。这是faster rcnn的思路。与典型的RPN(通过类不可知的NMS贪婪地选择候选对象区域(RoIs))相反,这篇万丈提出一个drlRPN网络,该网络可以优化目标,使其更接近最终检测任务。这是通过使用通过深度强化学习(RL)训练的顺序注意机制代替贪婪的RoI选择过程来实现的。这篇文章利用强化学习,设置一个agent,environment以及其他的component,通过agent的奖励和惩罚机制,学习到一个直接找到目前检测区域的路径,这是一个目标的搜索过程,对应的算法其实是一个搜索策略的学习过程,通过最小化奖惩代价函数的迭代过程学习到智能体决策的最终参数,从而生成需要的region proposal。

 

agent:

 

与faster rcnn benchmark的对比结果:

 

识别结果从mAP上优于faster rcnn

 

参考文献

S. Mathe, A. Pirinen, and C. Sminchisescu. Deep reinforcement learning for visual object detection. CVPR, 2016.

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值