YOLOv2做了哪些改进 论文理解

YOLOv2在YOLO基础上进行了多方面的改进,包括批量规范化加速训练和防止过拟合,高分辨率预训练提升分类性能,新网络结构结合跳跃结构优化特征提取,以及多尺度训练增强目标检测适应性。此外,还介绍了anchor机制、直接预测相对位置和细粒度特征等关键点。
摘要由CSDN通过智能技术生成

YOLOv2做了哪些改进

YOLOv2在第一个版本的基础上做了不少的改进,包括网络结构和训练的小技巧,anchor机制的加入,本文将对这些改进做一个梳理。

YOLOv2做了哪些改进

总览

改进分析

1. 批量规范化 (Batch Normalization)

2.大尺度预训练分类(High Resolution Classifier)

3.新网络和跳跃结构 (New Network)

4. anchor机制

5. 直接预测相对位置(Direct location prediction)

6. 细粒度特征  (Fine-Grained Features)

7. 多尺度训练(Multi-Scale Training)

附:

对v2的一些个人理解

训练过程



总览

作者的实验结果总结,可以发现有很多的工程性质的trick,背后的理论却不是很多,感觉上是实验性质。

 

改进分析

1. 批量规范化 (Batch Normalization)

对数据进行预处理(统一格式、均衡化、去噪等)能够大大提高训练速度,提升训练效果。

这个就像卷积网络中的神器,加上之后又能防止过拟合又能加速收敛。原理上,对每一批训练数据统计通道上的均值和方差,再做归一化处理,预测的时候只有一张图片,统计性质不好,用训练集的期望代表均值和方差。加上BN之后有了2个点的提升。

  批量规范化 ,对每一层输入的数据进行加工。示意图:

       Batch Normalization,简称 BN,由Google提出,是指对数据的 归一化、规范化、正态化。BN 作为近几年最火爆的Trick之一,主流的CNN都已集成。

       该方法的提出基于以下背景:

1)神经网络每层输入的分布总是发生变化,通过标准化上层输出,均衡输入数据分布,加快训练速度;

      可以设置较大的学习率和衰减,而不用去care初始参数,BN总能快速收敛,调参狗的福音。

2)通过规范化输入,降低激活函数在特定输入区间达到饱和状态的概率,避免 gradient vanishing 问题;

      举个例子:0.95^64 ≈ 0.0375    计算累积会产生数据偏离中心,导致误差的放大或缩小。

3)输入规范化对应样本正则化,在一定程度上可以替代 Drop Out;

      Drop Out的比例也可以被无视了,全自动的节奏。

       BN 的做法是 在卷积池化之后,激活函数之前,对每个数据输出进行规范化(均值为 0,方差为 1)

       公式很简单,第一部分是 Batch内数据归一化(其中 E为Batch均值,Var为方差),Batch数据近似代表了整体训练数据。

       第二部分是亮点,即引入 附加参数 γ 和 β(Scale & Shift),Why? 因为简单的归一化 相当于只使用了激活函数中近似线性的部分(如下图红色虚线),破坏

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
改进YOLOv5s模型,可以尝试以下几个方法: 1. 加入注意力机制:通过在模型中引入注意力机制,可以提高模型对重要特征的关注程度,从而改善检测性能。这可以通过使用SENet、CBAM等注意力模块来实现。 2. 换主干网络:YOLOv5s使用的主干网络是CSPDarknet53,可以尝试将其换成其他更强大的主干网络,比如EfficientNet、ResNet等,以提高模型的特征提取能力。 3. 换池化方式:YOLOv5s使用的是自适应平均池化,可以尝试使用其他池化方式,比如最大池化、自适应最大池化等,以提高模型的感受野大小和特征保留能力。 4. 改进注意力机制:对于注意力机制的改进,可以尝试基于自己的理解设计一个新的模块,通过多种数据实验和验证,找到适合当前任务的注意力机制。 需要注意的是,改进模型需要基于论文复现的基础上进行,可以根据自己的经验和理解尝试不同的改进方法。同时,还需要进行大量的实验和测试,以评估改进后模型的性能和效果。 针对YOLOv5s的改进,可以参考已有的研究和实践经验,如YOLOv5改进的核心内容,包括如何添加自己的模块以及配置通道。此外,还可以参考基于改进YOLOv5s模型的煤矸目标检测的相关研究,了解在具体应用场景中的改进方法和效果[3]。 总之,改进YOLOv5s模型可以通过加入注意力机制、换主干网络、换池化方式等方法来提高模型性能,并需要进行充分的实验和验证。可以参考已有的研究和实践经验,同时根据具体任务和需求,设计适合自己的改进策略。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值