目标检测学习-Libra R-CNN

1.训练过程中存在的不平衡

在目标检测中,往往更加关注的是模型结构,但是与模型结构相比,训练过程对目标检测器来说也是很关键的。文中发现目标检测器性能往往收到训练过程中的不平衡的限制,这包括以下三点(如Fig1所示):1)sample level(样本层面),在训练一个检测器的时候,hard samples可以提高检测性能。然后使用随机采样的方式通常会导致选择的样本以简单样本为主。OHEM可以对这个缓解该问题,但是对噪声标签很敏感,并产生相当大的内存和计算成本。Focal Loss在一阶段算法中能有效缓解采样不平衡的问题,但是扩展到两阶段算法中由于大部分majority easy negatives被RPN过滤掉,所以效果也不是很好。2)feature level(特征层面),在backbone中深层特征具有更多的语义信息,而低层特征包含更多的细节信息(如轮廓,纹理等),在FPN中通过将高层特征与低层特征融合来提高检测的性能,本文认为,融合的信息应该包含每个分辨率的平衡信息。但是在FPN中使得融合的特征更多的关注于相邻的分辨率为不是其他分辨率。在信息传递过程中,每次融合操作,会使得非相邻层级的语义信息变得稀释。3)objective level(训练目标层面),在目标检测中需要完成两个任务,目标的分类和回归,可以将其看作是一个multi-task的训练优化问题,如果不能很好的平衡两个目标,可能导致整体性能的下降,此情形同样适用于训练过程中的样本,如果不能很好地平衡,容易样品产生的小梯度可能会被难样品产生的大梯度所淹没,从而限制进一步的细化。

2.文中给出的三点改进

2.1 IOU-balanced sampling

作者进行了一个实验,其目的是验证训练样本与其对应的ground truth之间的重叠是否与其困难有关。结果如下图Fig2所示,超过60%的hard negative samples的IoU都是大于0.05的,但是在随机抽样中,只有大约30%的样本IoU大于0.05,这将导致背景远远大于ground truth。本文提出一种平衡方法IOU-balanced sampling,这里假设要从M个候选样本中取N个负样本,那么随机采样的概率为:\frac{N}{M},为了增加hard negative samples被抽中的概率,本文提出了IOU-balanced sampling,其做法是根据IOU将采样区域分成K个格子。N个负样本平均分配到每个格子中,然后均匀的从中选择样本,此时被选中的概率为:\frac{N}{K}\times\frac{1}{M_{k}},k∈[0, K),其中M_{k}是用k表示的相应区间内候选样本的数量,文中默认为3。

2.2 Balanced Feature Pyramid

与以前使用的横向连接融合多层特征的方法不同,本文的关键思想是使用相同的深度集成的平衡语义特征来加强多级特征(如下图Fig3所示)。为了融合不同层级的特征,同时还要保留其语义信息,首先要将不同层级的特征C_{2},C_{3},C_{4},C_{5}基于插值或者max pooling resize到同一个尺寸,例如取C_{4},然后取其平均值得到平衡后的语义特征。接下来作者参照Non-local neural networks使用Gaussian non-local attention来增强integrate后的特征,融合后得到的特征P_{2},P_{3},P_{4},P_{5}用于后续的目标检测中,流程和FPN相同。

2.3 Balanced L1 Loss

在Fast R-CNN中使用如下所示公式1来解决分类和回归损失的。这里在回归损失前面加入了一个参数\lambda来对损失函数进行调整,引入参数的原因是这个损失函数是两个loss的相加,那么如果分类的效果已经很好了也会得到一个很好的损失值,这样的话就会忽略了回归的重要性。文中把样本损失大于等于 1.0 的叫做 outliers,小于的叫做 inliers。为了平衡不同的任务,就需要对参数进行调整,但是,由于回归目标是没有边界限制的,直接增加回归损失的权重将会使模型对 outliers 更加敏感。对于 outliers 会被看作是困难样本,这些困难样本会产生巨大的梯度不利于训练的过程,而 inliers 被看做是简单样本只会产生相比 outliers 大概 0.3 倍的梯度。

基于上述问题,作者提出balanced L1 loss,balanced L1 loss是受到了smooth L1 loss的启发,在smooth L1 loss中,通过设置一个拐点来区分inliers和outliers,并对outliers设置最大值1.0进行梯度截断,如下图Fig4(a)中的虚线所示。balanced L1 loss的主要目的就是提升inliers中的梯度,图Fig4(a)中虚线上面的部分,让位于拐点之前的nliers产生更大的梯度。  作者通过参数\gamma来调整回归损失的上界如图Fig4(b)所示,通过调整参数\alpha,\gamma,可以得到更加平衡的训练。

balanced L1 loss中的公式如下所示:

 

 

 

3.实验

1)对于IOU-balanced sampling的实验如下图Fig5所示,实验证明对于K的取值并不是很敏感,取不同的KK值在AP上表现的差别不是很大,那么文章提出这种方法最大的特点就是可以在IOU上均匀采样,使得hard negative在IOU上均匀分布。

2)对于Balanced Feature Pyramid的实验如下图Fig6所示,可以看出本文提出的方法在AP上有所提高。

3)对于balanced L1 loss的实验如下图Fig7所示,可以看出在\alpha=0.5,\gamma=1.5的时候AP值最高。

4)从下图Fig8中可以看出在三种方法都使用的情况下AP值最好。

5)下图Fig9为在coco数据集上与其他模型的比较。

 

 

 

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: Libra R-CNN是Facebook AI Research团队于2019年提出的一种目标检测算法,它采用了一种新的思路——将目标检测过程分为两个阶段:先使用高效的RPN网络生成候选框,再使用分类器对候选框进行分类和回归。这种方法可以大大提高检测效率,同时保持较高的精度。与传统的Faster R-CNN相比,Libra R-CNN的检测速度快了近3倍,同时保持了相当的精度。 ### 回答2: Libra R-CNN是由Facebook AI Research团队在2019年提出的一种目标检测算法。目标检测是计算机视觉中的一个重要任务,旨在识别和定位图像中的不同目标。 Libra R-CNN的设计目标是解决目标检测中存在的两个挑战:不平衡的目标类别分布和多尺度目标的检测问题。在目标类别分布上,一些类别的目标在数据集中往往是非常罕见的,这导致传统的目标检测算法在罕见类别上的性能较差。而在多尺度目标的检测上,由于图像中的目标可能具有不同的尺度,传统的目标检测算法在检测小目标和大目标时往往表现不佳。 Libra R-CNN通过引入新的损失函数和网络结构来解决这两个问题。其中,采用了一种新的正负样本选择策略来平衡不同目标类别的分布,使得模型能够更好地处理罕见类别的目标。此外,通过引入一个多尺度特征融合模块,Libra R-CNN能够有效地处理不同尺度的目标,提高目标检测的性能。 实验证明,Libra R-CNN在多个目标检测数据集上取得了很好的性能表现,相较于其他目标检测算法具有更好的检测准确性和鲁棒性。该算法在推动目标检测技术的发展上具有重要的意义,为解决目标检测中的挑战提供了新的思路和方法。 总之,Libra R-CNN是一种解决目标检测中不平衡目标类别分布和多尺度目标检测问题的算法,通过引入新的损失函数和网络结构,取得了很好的性能表现。它对于推动目标检测技术的发展具有重要的意义。 ### 回答3: Libra R-CNN是一种基于目标检测和实例分割的深度学习模型算法。它被设计用于解决目标检测中存在的物体不平衡问题,即训练样本中不同类别的物体数量差异过大。通常,在目标检测任务中,一些常见的物体类别(如人、车)的样本数量会远远超过其他类别,这会导致模型过度关注于此类常见类别而忽略其他类别。而Libra R-CNN就是为了解决这个问题而提出的。 Libra R-CNN的核心思想是通过引入一种新的调节因子,对损失函数进行重新定义,从而有效平衡不同类别的物体样本的权重。这个调节因子综合考虑了每个类别的物体例子在整个训练集中出现的频率,以及目标检测任务中不同类别之间的难易程度。通过对不同类别样本的权重进行调整,Libra R-CNN能够更加均衡地对待训练集中的不同类别物体,提高模型对少样本类别的检测能力。 此外,Libra R-CNN还引入了一种新的网络结构,叫做Libra引导采样(Libra RoI Sampling)。这个结构能够根据样本的难易程度,自适应地调整样本的采样比例,让模型更加关注难以检测的类别。通过这种方式,Libra R-CNN目标检测中取得了较好的性能。 综上所述,Libra R-CNN是一种通过引入调节因子和采样策略来解决目标检测中物体不平衡问题的算法模型。它的提出有效地解决了训练样本中不同类别物体数量差异过大的问题,提高了对少样本类别的检测能力,并在目标检测任务中取得了较好的性能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

金牌港C

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值