Deep Reinforcement Learning of Region Proposal Networks for Object Detection
背景:最近搞完找工作的事情,开始回归到研究论文写大论文的阶段来了。
大论文是我的老本行,虽然找工作没有找这个方向,在研究的兴趣点上来说Object detection是我的point。
这篇比较新的文章研究的是利用一种基于深度强化学习的RPN网路做OD(Object Detection)。思路比较新颖,但是不是很容易理解。传统的两阶段目标检测首先需要提取目标特征,获得特征区域,然后继续做区域目标的分类和位置回归,区域生成网络(RPN)采用的是对特征图上设置滑动窗口,每个滑动窗口设定一定比例尺寸的anchor,判断每个anchor中是否是检测目标,从而得到特征区域。这是faster rcnn的思路。与典型的RPN(通过类不可知的NMS贪婪地选择候选对象区域(RoIs))相反,这篇万丈提出一个drlRPN网络,该网络可以优化目标,使其更接近最终检测任务。这是通过使用通过深度强化学习(RL)训练的顺序注意机制代替贪婪的RoI选择过程来实现的。这篇文章利用强化学习,设置一个agent,environment以及其他的component,通过agent的奖励和惩罚机制,学习到一个直接找到目前检测区域的路径,这是一个目标的搜索过程,对应的算法其实是一个搜索策略的学习过程,通过最小化奖惩代价函数的迭代过程学习到智能体决策的最终参数,从而生成需要的region proposal。
agent:
与faster rcnn benchmark的对比结果:
识别结果从mAP上优于faster rcnn
参考文献
S. Mathe, A. Pirinen, and C. Sminchisescu. Deep reinforcement learning for visual object detection. CVPR, 2016.