深度学习backbone、neck、head等术语解释

backbone:主干网络,用来提取特征,常用Resnet、VGG等

head:获取网络输出,利用提取特征做出预测

neck:放在backbone和head之间,进一步提升特征的多样性及鲁棒性

bottleneck:瓶颈,通常指网络输入输出数据维度不同,通常输出维度比输入维度小很多

GAP:Global Average Pool全局平均池化,将某个通道的特征取平均值

Warm up:小的学习率先训练几个epoch,这是因为网络的参数是随机初始化的,一开始就采用较大的学习率容易数值不稳定

参考链接:汇总|目标检测中的数据增强、backbone、head、neck、损失函数 - 知乎

一、数据增强方式

  1. random erase
  2. CutOut
  3. MixUp
  4. CutMix
  5. 色彩、对比度增强
  6. 旋转、裁剪

解决数据不均衡:

  • Focal loss
  • hard negative example mining
  • OHEM
  • S-OHEM
  • GHM(较大关注easy和正常hard样本,较少关注outliners)
  • PISA

二、常用backbone

  1. VGG
  2. ResNet(ResNet18,50,100)
  3. ResNeXt
  4. DenseNet
  5. SqueezeNet
  6. Darknet(Darknet19,53)
  7. MobileNet
  8. ShuffleNet
  9. DetNet
  10. DetNAS
  11. SpineNet
  12. EfficientNet(EfficientNet-B0/B7)
  13. CSPResNeXt50
  14. CSPDarknet53

三、常用Head

Dense Prediction (one-stage):

  1. RPN
  2. SSD
  3. YOLO
  4. RetinaNet
  5. (anchor based)
  6. CornerNet
  7. CenterNet
  8. MatrixNet
  9. FCOS(anchor free)

Sparse Prediction (two-stage):

  1. Faster R-CNN
  2. R-FCN
  3. Mask RCNN (anchor based)
  4. RepPoints(anchor free)

四、常用neck

Additional blocks:

  1. SPP
  2. ASPP
  3. RFB
  4. SAM

Path-aggregation blocks:

  1. FPN
  2. PAN
  3. NAS-FPN
  4. Fully-connected FPN
  5. BiFPN
  6. ASFF
  7. SFAM
  8. NAS-FPN

五、Skip-connections

  1. Residual connections
  2. Weighted residual connections
  3. Multi-input weighted residual connections
  4. Cross stage partial connections (CSP)

六、常用激活函数和loss

激活函数:

  • ReLU
  • LReLU
  • PReLU
  • ReLU6
  • Scaled Exponential Linear Unit (SELU)
  • Swish
  • hard-Swish
  • Mish

loss:

  • MSE
  • Smooth L1
  • Balanced L1
  • KL Loss
  • GHM loss
  • IoU Loss
  • Bounded IoU Loss
  • GIoU Loss
  • CIoU Loss
  • DIoU Loss

七、正则化和BN方式

正则化:

  • DropOut
  • DropPath
  • Spatial DropOut
  • DropBlock

BN:

  • Batch Normalization (BN)
  • Cross-GPU Batch Normalization (CGBN or SyncBN)
  • Filter Response Normalization (FRN)
  • Cross-Iteration Batch Normalization (CBN)

八、训练技巧

  • Label Smoothing
  • Warm Up

  • 33
    点赞
  • 279
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: YOLOv8是一种基于单阶段目标检测器的深度学习模型,使用了类似于YOLOv5的设计,并在其基础上进行了改进。下面从backboneneckhead三个方面来介绍YOLOv8。 1. Backbone YOLOv8使用了Darknet53网络作为backbone,这是一种经典的卷积神经网络,具有较强的特征提取能力。Darknet53对输入图像进行了多次下采样,从而在一定程度上保留了图像的空间信息。 2. Neck YOLOv8的neck部分使用了多尺度特征融合技术,主要包括PANet和FPN两种方法。PANet通过对特征图进行不同尺度的池化和上采样来获得多尺度特征图,然后使用特征金字塔结构将它们融合在一起。FPN则通过对不同层级的特征图进行融合,产生具有不同大小的感受野的特征图,从而提高模型对目标的检测能力。 3. Head YOLOv8的head部分使用了YOLOv5的设计,包括SPP、PAN和SAM三种模块。其中,SPP模块通过对特征图进行金字塔式的池化操作,获得不同尺度的特征,从而提高模型对目标尺度变化的适应性;PAN模块则通过将多个小尺寸的特征图拼接成一个大尺寸的特征图,增强了模型对目标的检测能力;SAM模块则使用了注意力机制,通过学习不同区域的重要性,进一步提高了模型的性能。 综上所述,YOLOv8在backboneneckhead三个方面都进行了优化,使得模型在目标检测任务上表现出了较好的性能和鲁棒性。 ### 回答2: Yolo8是一种目标检测算法,它是基于深度学习的实时物体检测方法。它的整体架构包括backboneneckhead三个部分。 首先是backbone,它是整个算法的基础,通常使用一些经典的卷积神经网络(CNN)架构,例如ResNet、Darknet等,用于提取输入图像的特征。通过多层卷积和池化操作,backbone可以从原始图像中提取出底层到高层的特征表示,这些特征表示具有不同的语义信息,能够更好地揭示图像中的目标。 接下来是neck部分,它的作用是进一步提升特征的表达能力。在Yolo8中,neck采用了特征金字塔网络(Feature Pyramid Network,FPN)的结构,通过引入多尺度的特征图,使得算法能够更好地处理不同大小的目标。通过上采样和下采样的操作,neck将从backbone输出的特征图连接在一起,形成多层次的特征金字塔,使得Yolo8可以在不同尺度上进行物体检测,并获得更精确的检测结果。 最后是head部分,它负责对生成的特征图进行分类和定位操作,以检测出图像中的目标物体。在Yolo8中,head采用了单个卷积层来实现目标的识别和定位。这个卷积层同时输出了目标的类别概率及其位置的坐标,通过对特征图进行逐个像素的分类和回归,可以得到每个目标在图像中的位置和类别。 综上所述,Yolo8采用了backboneneckhead三个部分,通过特征提取、特征金字塔和分类回归来实现实时的目标检测。这种算法结构使得Yolo8在速度和准确性上取得了较好的平衡,成为目标检测领域的重要算法之一。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值