R-CNN:Region-based convolutional networks for accurate object detection and segmentation阅读笔记

Region-based convolutionalnetworks for accurate object detection and segmentation(2016.PAMI)

Ross Girshick, Jeff Donahue, TrevorDarrell, Jitendra Malik

一、摘要

        目标检测最近这几年在PASCAL VOC挑战赛上的表现达到相对稳定,表现最好的方法是那些将低层次的图像特征和高层次是上下文信息结合起来的复杂的集成系统。这篇论文提出了一种简单可扩展的算法,相对于先前在VOC 2012上表现最好的算法mAP提高了超过50%——mAP达到了62.4%。本文的方法组合了两个想法:(1)将高容量的CNN应用到为了定位和分割的自下而上的region proposals上;(2)当标记的数据不足时,用一个辅助的监督预训练,加上一个特定区域的finetuning,能很好地改善效果。作者将这种方法称为R-CNN。

二、论文的主要内容

1、Introduction

  本文通过对两个问题的解决方法进行阐述,来表明CNN可以获得比HOG之类特征更好的效果。

(1)怎样用深度网络定位目标?

  以前的方法中如果是单个目标,直接将检测构造回归问题;如果图像中有多个目标,则使用滑动窗口的方法;在碰到长宽比不一致的,可以通过像DPM这样变换长宽比的混合模型的方法来解决。

本文解决定位问题方法是引入proposal。具体操作思路就是:首先系统对图像产生大约2000个region proposals;然后用CNN给每个proposal提取一个固定长度的特征向量;最后再使用指定具体种类的SVM们(强调一下“们”,因为不是一个SVM,有多少个类就训练多少个SVM)来对每个region进行分类。图1就是R-CNN的网络框架。


图1.R-CNN网络结构

(2)怎样用只有少量标记的检测数据来训练一个大容量的模型?即如何解决训练过拟合的问题。

  传统的方法是非监督的预训练和监督的fine-tuning相结合的方法。

  本文方法是使用一个大的辅助的数据集进行监督预训练,然后再用一个小的数据集进行具体范围的fine-tuning。

2、相关工作:讨论了一些本文涉及到的一些要讨论的地方。

2.1 Deep CNNs for object detection.

2.2 可扩展性&速度. 可扩展性是指当分类的类目增加时,训练的detector是否还适用。举了一个基于DPM实现多分类的例子,但是检测精度大打折扣。那本文进行多分类时,图1中的前三部分都不需要变动,共享,只需要多训练一些SVM就行。

2.3 定位方法。上面说过。

2.4 Object proposal generation.

《What Makesfor Effective Detection Proposals》这篇论文主要探讨的就是这个问题。我之前有一篇关于这篇论文的阅读笔记。网址:http://blog.csdn.net/mw_mustwin/article/details/52877922

2.5 Transfer learning. 就是怎么样预训练怎么样fine-tuning的问题,论文要讨论的第二个问题,上面introduction里也有简单说明,后文中也会具体阐述。

2.6 R-CNN延伸。这个作者的R-CNN发了好几篇论文,所以有几个版本。14年就已经在CVPR上可以查到。所以这边16年在PAMI上有交代了后来关于这篇论文的改进,其中包括作者自己的fast R-CNN。

3、R-CNN进行目标检测

    这一节第一部分将模型设计,第二部分讲detection的测试时间分析,第三部分讲训练过程,第四部分展示结果。

3.1 模块设计

3.1.1 region proposals.

有很多种产生proposals的方法,具体见《WhatMakes for Effective Detection Proposals》,效果差别很大。本文使用的是selective search。

3.1.2 特征提取

使用CNN给每个proposal算法提取一个固定长度的特征向量。论文中大多数的实验是使用的TorontoNet,后来也是用了16层的OxfordNet。

这两种CNN的输入都是经过mean-subtracted的S*S的RGB图像(所以每个proposal要进行预处理,后面第七章有讲到怎么处理)。取softmax层前面输出的经过前向传播产生的4096维的特征向量。随后拿去训练SVM。

3.2 运行时间分析

整个检测过程:首先对测试的图像用selective search产生大约2000个的proposal,然后转化proposal的size输入到CNN中,前向传播后产生特征向量。每一个SVM对应一个class,将产生的特征向量再输入到SVMs中,会产生每个class的得分。最后,对每一个class在图像中的所有得分区域使用非极大值抑制,去除那些重合且得分低的窗口。

论文在检测过程中两个地方很高效,导致其相对其他方法时间不会很长(但是还是挺长哈):(1)经过CNN的过程共享计算,即特征向量计算一遍就行。提取proposal和CNN提取特征在GPU上是10s每张图,CPU每张图53s。(2)提取的CNN特征向量是低维的,因此即使有很多个SVM,也不会产生太多的运行时间。

拿UVA系统进行对比分析,UVA运行时间是R-CNN的几百倍(两个量级),内存UVA要占据134GB,而R-CNN只要1.5GB。

3.3 训练过程

分为三块,预训练,fine-tuning以及SVM的训练。

3.3.1 监督预训练:使用一个大的辅助的数据集(ILSVRC2012)进行判别式地预训练。

3.3.2 具体范围的fine-tuning

为了适应新的任务和范围,我们接着只使用新的具体的数据集提取的proposal,以及随机低度下降方法来训练CNN参数。CNN的网络除了输出的类别数目由原来ILSVRC2012的1000类变为现在的N+1类,1表示背景。

那些和groundtruth重合IoU大于等于0.5的记为正样本,其余记为负样本。(这里我原先以为只要区分是目标还是背景就行了,一直很混淆,看了两遍才明白不是,每个正样本还要指定对应的是哪一类的正样本,所以其实上面的+1好像没啥意义,只要所有类别都为0不就表示是背景了吗?所以上面虽然说是N+1类,但是实际输出N维就可以了吧?)梯度下降算法的学习速率为0.001,使用批训练的方式,每批128个样本(正样本32,负样本96)。因为OxfordNet需要更多的内存,所以每批24个。

3.3.3 SVM进行具体类别分类

这边SVM训练时也考虑到IoU临界值设置问题,但是此时只把所有的groundtruth box

视为正样本,proposal与groundtruthbox的IoU小于等于0.3(0.3这个值是实验得出来的)就判为负样本。所以SVM训练过程中的proposal其实只是用来产生负样本的。另外,每个正样本还是要对应一个200维的标签,当训练A类时,把所有正样本中A类对应标签为1拿出来和负样本组合训练一个SVM,然后再训练B类……以此类推。

特征向量和标签设置好就开始训练,考虑到占内存的问题使用Hard negative mining方法来训练SVM。

3.3.4 这么费劲训练的原因

第一个问题,关于finetuning阶段使用的正样本和SVM阶段不一样的原因:如果fine-tuning使用和SVM阶段一样的正样本,结果会变很差,分析原因应该是:样本的数目会变少,训练发生过拟合。

第二个问题,为什么不直接用CNN的Softmax?因为相对于论文中的结果较差,3个percent的差距,分析原因可能是:fine-tuning使用的正样本不够精确定位,以及softmax使用的负样本是随机的,而SVM使用的是难例的子集。
3.4 结果


图2. VOC2010上各算法结果比较

并没有给VOC2012具体比较,只说了有相似的结果,两种CNN的mAP分别是53.3%,62.4%。

4、分析

4.1 可视化学习的特征

就不具体写了,附张图,大意就是学习到的特征能很好地反映图像内容。


图3. 可视化特征

 

4.2  Ablationstudy(不知道怎么翻译,大意是分析每个细节对结果的影响)

4.2.1 没有fine-tuning每一个全连接层的表现

Fc6的表现比fc7的表现好,所以没有必要加fc7。甚至移除fc6,pool5的输出效果相对fc6也没差太多。因此可以省去很多参数的训练。

4.2.2 带fine-tuning的每一个全连接层表现

Fc6和fc7相对于pool5的输出特征在最终的结果上有很大提高。

4.2.3 和最近的特征学习方法比较:R-CNN好太多。

附具体表现图:


图4. VOC2007具体表现比较

4.3 网络结构

将TorontoNetand OxfordNet两种网络结构进行比较。OxfordNet的效果比TorontoNet好很多,但是前向传播时间长7倍。具体结果附图:


图5. TorontoNet and OxfordNet两种网络结构结果比较。

4.4 检测的误差分析

4.5 Bounding-Box 回归

用pool5层提取的特征训练一个线性回归模型预测新的检测窗口来提高定位表现。

将那些和最近的groundtruthbox有至少0.6的IoU的proposal作为训练样本,其余的proposal丢弃,形成N个训练对。这里P指proposal对应的特征向量,G指ground-truth box。具体训练过程没细看。

5 ILSVRC2013 检测数据集

5.1数据集介绍

包括训练集(395918),验证集(20121)以及测试集(40152)。应该是算法只能想系统提交两次。训练集标记不充分,所以策略是依赖验证集,辅助训练集。将验证集划分为val1和val2。

5.2 region proposal

  和前面没差,主要是ILSVRC数据集尺寸不一致,所以在selective search之前对图像尺寸作调整。

5.3 训练数据

  训练集包括:(1)val1中的groundtruth box;(2)selective search在val1上产生的proposal;(3)训练集上最多N个ground-truth box。(N论文中有三个选择:0,500,1000)。

训练集用于CNNfine-tuning,SVM的训练以及Bounding-Box回归。具体怎么用,见下图。其中测试集是test的两个是提交的。


图6.ILSVRC2013不同训练数据选择以及结果

第6章 关于分割,目前暂时不关注。

7、实现和设计细节

7.1 proposal的转换

  Selective search产生的proposal是任意的矩形,但CNN的输入需要固定的size。两个方法:

  (1)tightest square with/without context。意思就是proposal不变型,以长边为基准,短的一边要么加原图内容,要么加白色边来填充。

  (2)warp。就是变形拉伸,就类似于我们平常不固定长宽比调图像大小图像会扭曲类似。Warp好像就有扭曲的意思。效果见图,一看就懂。


图7. 处理proposal方式。A为原proposal;B为填充原图内容;C填充灰边;D扭曲。

7.2 Positive versus negative examples and softmacx

见3.3.4

7.3 boundingbox regression

见4.5

 

  •                     <li class="tool-item tool-active is-like "><a href="javascript:;"><svg class="icon" aria-hidden="true">
                            <use xlink:href="#csdnc-thumbsup"></use>
                        </svg><span class="name">点赞</span>
                        <span class="count">1</span>
                        </a></li>
                        <li class="tool-item tool-active is-collection "><a href="javascript:;" data-report-click="{&quot;mod&quot;:&quot;popu_824&quot;}"><svg class="icon" aria-hidden="true">
                            <use xlink:href="#icon-csdnc-Collection-G"></use>
                        </svg><span class="name">收藏</span></a></li>
                        <li class="tool-item tool-active is-share"><a href="javascript:;" data-report-click="{&quot;mod&quot;:&quot;1582594662_002&quot;}"><svg class="icon" aria-hidden="true">
                            <use xlink:href="#icon-csdnc-fenxiang"></use>
                        </svg>分享</a></li>
                        <!--打赏开始-->
                                                <!--打赏结束-->
                                                <li class="tool-item tool-more">
                            <a>
                            <svg t="1575545411852" class="icon" viewBox="0 0 1024 1024" version="1.1" xmlns="http://www.w3.org/2000/svg" p-id="5717" xmlns:xlink="http://www.w3.org/1999/xlink" width="200" height="200"><defs><style type="text/css"></style></defs><path d="M179.176 499.222m-113.245 0a113.245 113.245 0 1 0 226.49 0 113.245 113.245 0 1 0-226.49 0Z" p-id="5718"></path><path d="M509.684 499.222m-113.245 0a113.245 113.245 0 1 0 226.49 0 113.245 113.245 0 1 0-226.49 0Z" p-id="5719"></path><path d="M846.175 499.222m-113.245 0a113.245 113.245 0 1 0 226.49 0 113.245 113.245 0 1 0-226.49 0Z" p-id="5720"></path></svg>
                            </a>
                            <ul class="more-box">
                                <li class="item"><a class="article-report">文章举报</a></li>
                            </ul>
                        </li>
                                            </ul>
                </div>
                            </div>
            <div class="person-messagebox">
                <div class="left-message"><a href="https://blog.csdn.net/mw_mustwin">
                    <img src="https://profile.csdnimg.cn/C/0/C/3_mw_mustwin" class="avatar_pic" username="mw_mustwin">
                                            <img src="https://g.csdnimg.cn/static/user-reg-year/2x/3.png" class="user-years">
                                    </a></div>
                <div class="middle-message">
                                        <div class="title"><span class="tit"><a href="https://blog.csdn.net/mw_mustwin" data-report-click="{&quot;mod&quot;:&quot;popu_379&quot;}" target="_blank">mw_mustwin</a></span>
                                            </div>
                    <div class="text"><span>发布了9 篇原创文章</span> · <span>获赞 2</span> · <span>访问量 1万+</span></div>
                </div>
                                <div class="right-message">
                                            <a href="https://im.csdn.net/im/main.html?userName=mw_mustwin" target="_blank" class="btn btn-sm btn-red-hollow bt-button personal-letter">私信
                        </a>
                                                            <a class="btn btn-sm  bt-button personal-watch" data-report-click="{&quot;mod&quot;:&quot;popu_379&quot;}">关注</a>
                                    </div>
                            </div>
                    </div>
    

欢迎使用Markdown编辑器

你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Markdown编辑器, 可以仔细阅读这篇文章,了解一下Markdown的基本语法知识。

新的改变

我们对Markdown编辑器进行了一些功能拓展与语法支持,除了标准的Markdown编辑器功能,我们增加了如下几点新功能,帮助你用它写博客:

  1. 全新的界面设计 ,将会带来全新的写作体验;
  2. 在创作中心设置你喜爱的代码高亮样式,Markdown 将代码片显示选择的高亮样式 进行展示;
  3. 增加了 图片拖拽 功能,你可以将本地的图片直接拖拽到编辑区域直接展示;
  4. 全新的 KaTeX数学公式 语法;
  5. 增加了支持甘特图的mermaid语法1 功能;
  6. 增加了 多屏幕编辑 Markdown文章功能;
  7. 增加了 焦点写作模式、预览模式、简洁写作模式、左右区域同步滚轮设置 等功能,功能按钮位于编辑区域与预览区域中间;
  8. 增加了 检查列表 功能。

功能快捷键

撤销:Ctrl/Command + Z
重做:Ctrl/Command + Y
加粗:Ctrl/Command + B
斜体:Ctrl/Command + I
标题:Ctrl/Command + Shift + H
无序列表:Ctrl/Command + Shift + U
有序列表:Ctrl/Command + Shift + O
检查列表:Ctrl/Command + Shift + C
插入代码:Ctrl/Command + Shift + K
插入链接:Ctrl/Command + Shift + L
插入图片:Ctrl/Command + Shift + G
查找:Ctrl/Command + F
替换:Ctrl/Command + G

合理的创建标题,有助于目录的生成

直接输入1次#,并按下space后,将生成1级标题。
输入2次#,并按下space后,将生成2级标题。
以此类推,我们支持6级标题。有助于使用TOC语法后生成一个完美的目录。

如何改变文本的样式

强调文本 强调文本

加粗文本 加粗文本

标记文本

删除文本

引用文本

H2O is是液体。

210 运算结果是 1024.

插入链接与图片

链接: link.

图片: Alt

带尺寸的图片: Alt

居中的图片: Alt

居中并且带尺寸的图片: Alt

当然,我们为了让用户更加便捷,我们增加了图片拖拽功能。

如何插入一段漂亮的代码片

博客设置页面,选择一款你喜欢的代码片高亮样式,下面展示同样高亮的 代码片.

// An highlighted block
var foo = 'bar';

生成一个适合你的列表

  • 项目
    • 项目
      • 项目
  1. 项目1
  2. 项目2
  3. 项目3
  • 计划任务
  • 完成任务

创建一个表格

一个简单的表格是这么创建的:

项目Value
电脑$1600
手机$12
导管$1

设定内容居中、居左、居右

使用:---------:居中
使用:----------居左
使用----------:居右

第一列第二列第三列
第一列文本居中第二列文本居右第三列文本居左

SmartyPants

SmartyPants将ASCII标点字符转换为“智能”印刷标点HTML实体。例如:

TYPEASCIIHTML
Single backticks'Isn't this fun?'‘Isn’t this fun?’
Quotes"Isn't this fun?"“Isn’t this fun?”
Dashes-- is en-dash, --- is em-dash– is en-dash, — is em-dash

创建一个自定义列表

Markdown
Text-to- HTML conversion tool
Authors
John
Luke

如何创建一个注脚

一个具有注脚的文本。2

注释也是必不可少的

Markdown将文本转换为 HTML

KaTeX数学公式

您可以使用渲染LaTeX数学表达式 KaTeX:

Gamma公式展示 Γ ( n ) = ( n − 1 ) ! ∀ n ∈ N \Gamma(n) = (n-1)!\quad\forall n\in\mathbb N Γ(n)=(n1)!nN 是通过欧拉积分

Γ ( z ) = ∫ 0 ∞ t z − 1 e − t d t   . \Gamma(z) = \int_0^\infty t^{z-1}e^{-t}dt\,. Γ(z)=0tz1etdt.

你可以找到更多关于的信息 LaTeX 数学表达式here.

新的甘特图功能,丰富你的文章

Mon 06 Mon 13 Mon 20 已完成 进行中 计划一 计划二 现有任务 Adding GANTT diagram functionality to mermaid
  • 关于 甘特图 语法,参考 这儿,

UML 图表

可以使用UML图表进行渲染。 Mermaid. 例如下面产生的一个序列图:

张三 李四 王五 你好!李四, 最近怎么样? 你最近怎么样,王五? 我很好,谢谢! 我很好,谢谢! 李四想了很长时间, 文字太长了 不适合放在一行. 打量着王五... 很好... 王五, 你怎么样? 张三 李四 王五

这将产生一个流程图。:

链接
长方形
圆角长方形
菱形
  • 关于 Mermaid 语法,参考 这儿,

FLowchart流程图

我们依旧会支持flowchart的流程图:

Created with Raphaël 2.2.0 开始 我的操作 确认? 结束 yes no
  • 关于 Flowchart流程图 语法,参考 这儿.

导出与导入

导出

如果你想尝试使用此编辑器, 你可以在此篇文章任意编辑。当你完成了一篇文章的写作, 在上方工具栏找到 文章导出 ,生成一个.md文件或者.html文件进行本地保存。

导入

如果你想加载一篇你写过的.md文件,在上方工具栏可以选择导入功能进行对应扩展名的文件导入,
继续你的创作。


  1. mermaid语法说明 ↩︎

  2. 注脚的解释 ↩︎

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
你好!对于 "Region-Based Convolutional Networks for Accurate Object Detection and Segmentation" 这篇论文的复现,我可以给你一些指导。该论文介绍了一种基于区域的卷积神经网络方法,用于准确的物体检测和分割。 首先,你需要了解论文中提出的方法的核心思想和技术细节。然后,你可以按照论文中描述的步骤进行复现。以下是一些可能的步骤: 1. 数据集准备:根据论文中使用的数据集,你需要获取相应的训练集和测试集数据。确保数据集包含物体检测和分割的标注信息。 2. 模型架构:根据论文中描述的模型架构,你可以使用深度学习框架(如TensorFlow、PyTorch等)来构建模型。确保按照论文中提到的网络层次结构、连接方式和参数设置来构建模型。 3. 损失函数:根据论文中提到的损失函数,你可以实现相应的损失函数来衡量检测和分割任务的性能。 4. 训练过程:使用训练集数据对模型进行训练。根据论文中提到的训练策略和超参数设置,你可以使用反向传播算法来更新模型的权重。 5. 测试过程:使用测试集数据对训练好的模型进行测试。评估模型在物体检测和分割任务上的性能,并与论文中的结果进行比较。 请注意,由于论文可能没有提供完整的代码实现,你可能需要根据论文的描述进行一定的调整和优化。 希望这些步骤能为你复现该论文提供一些帮助!如果你有任何进一步的问题,欢迎继续提问。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值