参考文章CVPR2019
GA-RPN
GA-RPN(Guided Anchoring)是一种新的anchor 生成方法,即通过图像特征来指导anchor 的生成。通过CNN预测 anchor 的位置和形状,生成稀疏而且形状任意的 anchor,并且设计Feature Adaption 模块来修正特征图使之与 anchor精确匹配。GA-RPN相比RPN减少90%的anchor,并且提高9.1%的召回率,将其用于不同的物体检测器Fast R-CNN, Faster R-CNN and RetinaNet,分别提高 检测mAP 2.2%,2.7% ,1.2%。
GIoU
IoU 是目标检测领域最重要的评价尺度之一,特性是对尺度不敏感,主要判断检测框的重合程度。但是对于CNN而言,没有方向信息,无法反馈神经网络的边界回归框应该如何调整。既直接用IoU作为损失函数会出现两个问题:
- 如果两个框没有相交,根据定义,IoU=0,不能反映两者的距离大小(重合度)。同时因为loss=0,没有梯度回传,无法进行学习训练。
- IoU无法精确的反映两者的重合度大小。如图 1所示,IoU的变化无法反馈定位框的重合度和调整方向。
针对上面的问题,有了GIou(generalized IoU)的提出,如下:
GIoU的定义很简单,就是先计算两个框的最小闭包区域面积,再计算IoU,再计算闭包区域中不属于两个框的区域占闭包区域的比重,最后用IoU减去这个比重得到GIoU。GIoU有如下5个特点:
- 与IoU相似,GIoU也是一种距离度量,满足损失函数的基本要求
- GIoU对scale不敏感
- GIoU是IoU的下界,在两个框无线重合的情况下,IoU=GIoU
- IoU取值[0,1],但GIoU有对称区间,取值范围[-1,1]。在两者重合的时候取最大值1,在两者无交集且无限远的时候取最小值-1,因此GIoU是一个非常好的距离度量指标。
- 与IoU只关注重叠区域不同,GIoU不仅关注重叠区域,还关注其他的非重合区域,能更好的反映两者的重合度。
公式:
IOU net
该方法将原始利用分类概率来作为nms标准改为添加一个网络输出iou值,来做nms。具体如下图,经过两个FC网络输出iou的score。
RepMet: Representative-based metric learning for classification and few-shot object detection
该论文背景:当训练样本非常少时,如何进行深度学习训练,由IBM出品,所以还不错,暂时mark一下。
Feature Selective Anchor-Free Module for Single-Shot Object Detection
以yolov3为例,大的feature map分配小的anchor box,而小的feature map分配大的anchore box,但是该方法不是最优的,因此作者提出使用一个网络来进行训练,获取feature map应该预测的instance,网络图为第二图
Bounding Box Regression with Uncertainty for Accurate Object Detection
针对目标检测中标注的bounding box不准确的问题,提出改进的算法,属于挺好的改进方法。
Bidirectional Learning for Domain Adaptation of Semantic Segmentation
该论文通过Domain Adaptation,解决分割标注问题,通过一批数据集的标注,训练生成新数据集的标注。
想法虽然挺好,但miou依然比较差,所以现在还不考虑使用,毕竟我不是做标注工具的,他们应该能用