PANet:YOLOv4中的路径聚合网络

点击上方“小白学视觉”,选择加"星标"或“置顶

重磅干货,第一时间送达

09a8d2a563c2dff68dc4b1a369103eac.png

是最重要的计算机视觉过程之一,它将图像分割成更小的、多个片段,这样的话,目标的表示和进一步的分析就变得简单。这个过程有各种各样的应用,从在医学图像定位肿瘤和发展机器视觉中的生物测量识别的目标检测。图像分割过程主要分为两个部分:Semantic segmentationInstance segmentation

语义分割是指将图像中的像素分类为有意义的目标类别,如天空、道路或公共汽车。

实例分割包括以像素级识别、分类和定位图像中出现的各种实例(对象),并要求保留图像中出现的最精细的特征。它是目标检测过程中最复杂的任务之一。过去,Mask R-CNN是最常用的实例分割技术。单阶段目标测器技术YOLO3使用了特征金字塔。在YOLO的最近的一个版本YOLOv4中,使用了一种新的方法来分割实例,称为Path Aggregation NetworkPANet或简称为PAN。让我们更详细地了解一下这项技术。

PANet:

PANet位在于YOLOv4模型的neck,主要通过保留空间信息来增强实例分割过程。

a7855dcbdebf96e6497cde471f1094ce.png

PANet的性质


YOLOv4中选择PANet进行实例分割的原因是它能够准确地保存空间信息,有助于正确定位像素点,形成mask。

19ebd82bdf7e08c78d9e473eae602bce.png

使PANet如此准确的特性有:

1. 从底到上的路径增强

8bdd1a44d3a0db1c6a473fb697bae030.png

当图像经过神经网络的各个层时,特征的复杂度增加,同时图像的空间分辨率降低。因此,像素级mask无法通过高层次的特征准确的识别。

YOLOv3中使用的FPN使用自顶向下的路径来提取语义丰富的特征并将其与精确的定位信息结合起来。但对于为大目标生成mask,这种方法可能会导致路径过于冗长,因为空间信息可能需要传播到数百个层。

另一方面,PANet使用另一条自底向上的路径,而FPN采用的自顶向下的路径。通过使用从底层到顶层的横向连接,这有助于缩短路径。这就是所谓的**“shortcut”**连接,它只有大约10层。

2. 自适应特征池化

52cd6e92674e59b6916336e8366d7bfa.png

以前使用的技术,如Mask-RCNN使用单一阶段的特征来做mask预测。如果感兴趣区域较大,则使用ROI Align Pooling从较高层次提取特征。虽然相当准确,但这仍然可能导致不希望的结果,因为有时两个proposals只有10像素的差异,但是分配到了两个不同的层,而实际上它们是非常相似的proposals。

为了避免这种情况,PANet使用来自所有层的特征,并让网络决定哪些是有用的。对每个特征图进行ROI对齐操作,提取目标的特征。接下来是元素级的最大融合操作,以使网络适配新的特征。

3. 全连接融合

520c0ee9104ba10d219b0a0d09c1748a.png

在Mask-RCNN中,使用FCN来代替全连接层,因为它保留了空间信息,减少了网络中的参数数量。然而,由于所有空间位置的参数都是共享的,模型实际上并没有学会如何使用像素位置来进行预测,默认情况下,它会在图像的顶部显示天空,在底部显示道路。

另一方面,全连接层是位置敏感的,可以适应不同的空间位置。

PANet使用来自这两层的信息来提供更准确的mask预测。

YOLOv4的改进

PANet通常使用自适应特征池化将相邻的层相加到一起进行mask预测。但是,在YOLOv4中使用PANet时,这种方法做了点修改,例如,不是相加相邻的层,而是对它们应用一个拼接操作,以提高预测的准确性。

e8b53039f001a5dd4bcb748fc5c231e6.png

性能分析

使用ResNet-50骨干,使用多尺度图像进行训练,PANet超过了Mask-RCNN和2016年冠军,并且在2017年COCO实例分割挑战中也获得了冠军,在不需要大batch训练的目标检测任务中排名第二。

4cc849bf1225e3b184cf9812d2111538.png

在Cityscapes数据集上,它的表现也一直优于Mask-RCNN。经过COCO的预训练,该模型能够比Mask-RCNN高出4.4个百分点。

9f33e88abd1106266c97726f8b60d7fb.png

YOLOv4采用了PANet,由于其简单的实现和高性能,提高了预测的准确性,速度是EfficientDet的两倍。

e807cf4a7516c88b4820cfa3537940b7.png

从APs来看,YOLOv4取得AP值为43.5% (65.7% AP₅₀)在MS COCO数据集上,并在Tesla V100上实现了~ 65帧/秒的实时的速度,使其成为最快和最准确的检测器。由于包含了PANet而不是YOLOv3中使用的FPN,YOLOv4的性能提高了10-12% !

a541344b139c689a21a8bdadd02c2ee6.png

总结

PANet是快速、简单和非常有效的。它包含可以通过管道聚合的信息的组件。它对所有level的特征进行池化,缩短了最低层和顶层之间的距离。并且使用增强路径来丰富每个级别的特征。

在YOLOv4中测试时,它显示出了令人惊叹的结果,并大大提升了特征提取过程,保证了它在YOLOv4模型的neck的位置。

694aa5fd15cc1d37c9d4d435795e07de.png

—END—

英文原文:https://medium.com/clique-org/panet-path-aggregation-network-in-yolov4-b1a6dd09d158

下载1:OpenCV-Contrib扩展模块中文版教程

在「小白学视觉」公众号后台回复:扩展模块中文教程即可下载全网第一份OpenCV扩展模块教程中文版,涵盖扩展模块安装、SFM算法、立体视觉、目标跟踪、生物视觉、超分辨率处理等二十多章内容。

下载2:Python视觉实战项目52讲

在「小白学视觉」公众号后台回复:Python视觉实战项目即可下载包括图像分割、口罩检测、车道线检测、车辆计数、添加眼线、车牌识别、字符识别、情绪检测、文本内容提取、面部识别等31个视觉实战项目,助力快速学校计算机视觉。

下载3:OpenCV实战项目20讲

在「小白学视觉」公众号后台回复:OpenCV实战项目20讲即可下载含有20个基于OpenCV实现20个实战项目,实现OpenCV学习进阶。

交流群

欢迎加入公众号读者群一起和同行交流,目前有SLAM、三维视觉、传感器、自动驾驶、计算摄影、检测、分割、识别、医学影像、GAN、算法竞赛等微信群(以后会逐渐细分),请扫描下面微信号加群,备注:”昵称+学校/公司+研究方向“,例如:”张三 + 上海交大 + 视觉SLAM“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进入相关微信群。请勿在群内发送广告,否则会请出群,谢谢理解~

89d7150fcfcfc19b8e097af1168ae463.png

7627dab0423fd8fbaaf9e7165b187e44.png

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值