YOLO1-YOLO5检测头的改进

18 篇文章 1 订阅
3 篇文章 0 订阅

YOLO1:

最后检测头7*7grid,每个点预测两个框(一个大框一个小框),分类用one hot,如下图所示:

YOLO2:

 

 

            增加了一个中间卷积层,先采用64个 1*1 卷积核进行卷积,然后再进行passthrough处理,这样26*26*512的特征图得到13*13*256的特征图。

passthrough层的来源(细粒度特征):上图中第25层route 16,意思是来自16层的output,即26*26*512。

passthrough层的处理:

利用1*1*64卷积降低第25层26*26*512(实际来自16层)的通道数,从512降低到64,输出26*26*64(见第26层)。

第27层进行拆分(实际的passthrough层)操作,1拆4分成13*13*256。

将passthrough层和最后一层卷积层结合: 第28层叠加27层和24层的输出(13x13x1024+13x13x256),得到13*13*1280。

  1. 7*7 grid 太小了,增大为13*13
  2. 每个grid对应两个人为设计的anchor增加为5个统计得到的anchor(在voc2007和coco上都进行了统计,coco相比voc小框更多)
  3. 每个anchor对应一个类别,13*13*(5*5+5*20)=422500 outputs
  4. 损失函数gt为1变 与iou计算的值
  5. passthrough

YOLO3:

分为3个检测头分别检测大目标中目标和小目标,每个检测头预测3个人为设计的anchor

YOLO4:

  1. Using mutlti-anchors for single ground truth

anchor与ground truth IOU大于阈值的框在损失函数计算时,使用的c用IOU值

  1. Eliminate_grid_sensitivity

因为yolo3中使用了基于base anchor的策略限制了预测框中心点的位置必须在grid方框内部,这样会忽略中心点落在grid边界的情况,在前面增加系数,比如说1.1,填补这部分空缺的可能性。

  1. CIOU loss

YOLO5:

自适应anchor:

基于人工定义的anchor,网络对anchor再次计算。先定义前景背景,然后进行精细化分类和回归,相当于two stage检测模型。

  • 3
    点赞
  • 34
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Yolo1至Yolo8是一种用于目标检测算法,其全称为"you only look once"。它是一种实时物体检测深度学习算法,通过一次前向传递即可同时完成对图像中多个物体的检测和分类。 Yolo1算法首先将输入图像分为S x S个网格,并在每个网格中预测B个边界框,每个边界框包含了一个物体的位置和大小信息,以及该物体属于不同分类的概率。这样,我们可以获得S x S x B个边界框。 在预测过程中,Yolo1算法还使用了卷积神经网络模型,将输入图像经过多个卷积层和池化层进行特征提取,然后通过全连接层和Softmax函数进行物体分类。 相比于传统的目标检测算法Yolo1具有以下几个优点。首先,它具有实时性,可以在实时视频流中进行物体检测。其次,它能够检测出图像中的多个物体,不受物体密集程度的影响。再次,Yolo1可以通过一次前向传递完成检测和分类,减少了计算量和时间开销。 然而,Yolo1也存在一些缺点。它在小尺寸物体和重叠物体的检测上表现一般,容易发生漏检和误检。此外,Yolo1在物体边界的定位上也存在一定的偏差。 为了克服这些缺点,后续的Yolo算法,如Yolo2到Yolo8,进行了一系列改进。这些改进主要包括使用更深的神经网络模型、引入Anchor框、采用多尺度训练等。通过这些改进Yolo系列算法检测性能得到了显著提升,更适用于各种场景的目标检测任务。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值