浅谈ATSS

转载请注明出处

https://blog.csdn.net/weixin_45691429/article/details/107452436

文章链接
(https://github.com/sfzhang15/ATSS)
或者(https://paperswithcode.com/paper/bridging-the-gap-between-anchor-based-and)

Contributions

在这里插入图片描述

  1. 指出基于锚框和无锚检测器的本质区别在于如何定义正训练样本和负训练样本。
  2. 提出了一种自适应的训练样本选择方法,根据目标的统计特性自动选择正、负训练样本。
  3. 证明在图像上的每个位置平铺多个锚来检测对象是一个无用的操作。
  4. 在不引入任何额外开销的情况下,在MS COCO上实现最先进的性能。

切入点

在于基于anchor-based和anchor-free的目标检测算法之间的效果差异到底是由什么原因造成的?
——分别选了2个代表性算法:RetinaNet(anchor-based)和FCOS(anchor-free)。

回顾

RetinaNet
论文地址https://paperswithcode.com/method/retinanet
出发点:one-stage的准确率比不上two-stage,是样本的类别不均衡导致的。
RetinaNet算法是基于anchor-based,为了验证创新点focal loss的有效性提出RetinaNet网络。
RetinaNet是一个统一的网络,由骨干网和两个特定于任务的子网组成。主干网使用特征金字塔(FPN)。FPN给标准的卷积神经网络增加一个自顶向下的路径和侧向连接,来构建一个丰富的、多尺度的特征金字塔。对于两个子网,第一个子网在主干的输出上执行对象分类;第二个子网执行边界框回归。对于Box回归子网,它在每个空间位置是4A线性输出,对于每个空间位置的每个A锚点,这4个输出预测 锚和ground-truth框之间的相对偏移。这个边框回归子网就是计算anchor到关联的GT之间的偏移,基于anchor和GT之间的IoU和设定的阈值来确定正负样本,当IOU大于0.5时,anchors和GT关联;IOU在[0, 0.4)作为背景࿱

  • 11
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值