YOLOv2,v3,v4,v5,FCOS,YOLOX总结(anchor base/anchor free)

目标框回归

YOLOv2、v3、v4

网络预测目标框——>目标边界框回归

yolov5的目标框宽和高回归采用这个公式了,是因为之前的指数公式可能会出现指数爆炸现象,导致loss为NAN或者训练不稳定的情况,新公式的值域为0-4,也说明了anchor_t的最大值为4

正样本

为了增加正样本的数量,yolov5还采用了一种新的机制

这样让gt的中心点落在哪个cell,会选择离中心点最近的两个框

让正样本的数量变为原来的3倍

下面这个解释是我能想到的可能合理的解释吧,但不知道是否正确

Ref.

yolov5目标检测神经网络——损失函数计算原理 - 知乎

基于libtorch的yolov5目标检测网络实现(3)——Kmeans聚类获取anchor框尺寸

anchor free

anchor的缺点

从特征图到真实图(解码)

FOCS 的FPN正负样本匹配

RPN得到到一些候选框如何映射到对应的特征图上。这个公式可以算出候选框在哪个特征图上 ,w和h是候选框在原图上的宽和高

1.1.2 FPN结构详解_哔哩哔哩_bilibili

只要预测点落入gt box中,则该ceil视为正样本,但是通过实验发现,落入sub-box的被视为正样本,效果会更好一些

YOLOX

与YOLOv5的主要差别就在检测头head部分。之前的检测头就是通过一个卷积核大小为1x1的卷积层实现的,即这个卷积层要同时预测类别分数、边界框回归参数以及object ness(耦合头),这种方式在文章中称之为coupled detection head(耦合的检测头)。作者说采用coupled detection head是对网络有害的,如果将coupled detection head换成decoupled detection head(解耦的检测头)【分开预测clsbboxobj】能够大幅提升网络的收敛速度。

注意这些值都是相对预测特征图尺度上的,如果要映射回原图需要乘上当前特征图相对原图的步距stride

正负样本匹配SimOTA[最优传输成本] 最小化cost可以理解为让网络以最小的学习成本学习到有用的知识

正负样本匹配SimOTA[最优传输成本] 最小化cost可以理解为让网络以最小的学习成本学习到有用的知识

霹雳吧啦:FCOS网络讲解_哔哩哔哩_bilibilicsdn都有讲解

先根据cost选择成本较低的,但是GT1和GT2同时分配给了A5。作者为了解决这个带有歧义的问题,又加了一个判断。如果多个GT同时分配给一个Anchor Point,那么只选cost最小的GT。在示例中,由于A5与GT2的cost小于与GT1的cost,故只将GT2分配给A5。

取前3个是因为iou的和值为3(向下取整)

transformer的mask self-attention

正常的self-attention b1可以参考a1,a2, a3, a4, 但是mask self attention只参考它左边的,即b2 只能参考a1和a2,以此类推

mobilenet v3 改进

新的block (bneck),加入SE模块,更新了激活函数,h-sigmoid

重新设计了耗时的结构

采用NAS搜索参数

  • 8
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Anchor-based和Anchor-free是两种不同的目标检测方法。Anchor-based方法使用预定义的anchor框来匹配真实的目标框,通过回归和分类来检测目标。这种方法包括Faster R-CNN、RetinaNet和YOLO等。而Anchor-free方法则不使用预定义的anchor框,而是通过回归目标的中心点和宽高来检测目标。这种方法包括FCOS、ATSS和CornerNet等。Anchor-free方法相比于Anchor-based方法更简单和灵活,但可能存在召回率或定位精度低的问题。Anchor-free方法的优点是不需要预设anchor,只需要对不同尺度的特征图的目标中心点和宽高进行回归,减少了耗时和算力,并且可以避免一些由于anchor设置不合理导致的漏检或重复检测问题。\[1\]\[2\]\[3\] #### 引用[.reference_title] - *1* *3* [Anchor based and Anchor free(无锚VS有锚)【总结】](https://blog.csdn.net/qq_44029998/article/details/129561783)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [Anchor BaseAnchor Free](https://blog.csdn.net/Lc_001/article/details/129436513)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

kay_545

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值