2019新cv paper

参考文章CVPR2019

GA-RPN

GA-RPN(Guided Anchoring)是一种新的anchor 生成方法,即通过图像特征来指导anchor 的生成。通过CNN预测 anchor 的位置和形状,生成稀疏而且形状任意的 anchor,并且设计Feature Adaption 模块来修正特征图使之与 anchor精确匹配。GA-RPN相比RPN减少90%的anchor,并且提高9.1%的召回率,将其用于不同的物体检测器Fast R-CNN, Faster R-CNN and RetinaNet,分别提高 检测mAP 2.2%,2.7% ,1.2%。

GIoU

IoU 是目标检测领域最重要的评价尺度之一,特性是对尺度不敏感,主要判断检测框的重合程度。但是对于CNN而言,没有方向信息,无法反馈神经网络的边界回归框应该如何调整。既直接用IoU作为损失函数会出现两个问题:

  1. 如果两个框没有相交,根据定义,IoU=0,不能反映两者的距离大小(重合度)。同时因为loss=0,没有梯度回传,无法进行学习训练。
  2. IoU无法精确的反映两者的重合度大小。如图 1所示,IoU的变化无法反馈定位框的重合度和调整方向。

针对上面的问题,有了GIou(generalized IoU)的提出,如下:
GIoU的定义很简单,就是先计算两个框的最小闭包区域面积,再计算IoU,再计算闭包区域中不属于两个框的区域占闭包区域的比重,最后用IoU减去这个比重得到GIoU。GIoU有如下5个特点:

  1. 与IoU相似,GIoU也是一种距离度量,满足损失函数的基本要求
  2. GIoU对scale不敏感
  3. GIoU是IoU的下界,在两个框无线重合的情况下,IoU=GIoU
  4. IoU取值[0,1],但GIoU有对称区间,取值范围[-1,1]。在两者重合的时候取最大值1,在两者无交集且无限远的时候取最小值-1,因此GIoU是一个非常好的距离度量指标。
  5. 与IoU只关注重叠区域不同,GIoU不仅关注重叠区域,还关注其他的非重合区域,能更好的反映两者的重合度。
    公式:
    在这里插入图片描述
IOU net

该方法将原始利用分类概率来作为nms标准改为添加一个网络输出iou值,来做nms。具体如下图,经过两个FC网络输出iou的score。
在这里插入图片描述

RepMet: Representative-based metric learning for classification and few-shot object detection

该论文背景:当训练样本非常少时,如何进行深度学习训练,由IBM出品,所以还不错,暂时mark一下。

Feature Selective Anchor-Free Module for Single-Shot Object Detection

以yolov3为例,大的feature map分配小的anchor box,而小的feature map分配大的anchore box,但是该方法不是最优的,因此作者提出使用一个网络来进行训练,获取feature map应该预测的instance,网络图为第二图
在这里插入图片描述
在这里插入图片描述

Bounding Box Regression with Uncertainty for Accurate Object Detection

针对目标检测中标注的bounding box不准确的问题,提出改进的算法,属于挺好的改进方法。

Bidirectional Learning for Domain Adaptation of Semantic Segmentation

该论文通过Domain Adaptation,解决分割标注问题,通过一批数据集的标注,训练生成新数据集的标注。
想法虽然挺好,但miou依然比较差,所以现在还不考虑使用,毕竟我不是做标注工具的,他们应该能用

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值