目标检测图像增强方法(Data Augmentation)

14 篇文章 20 订阅
10 篇文章 1 订阅

1. 图像遮挡

1.1 Random Erase

 用随机值或训练集的平均像素替换图像区域。

Paper: Random Erasing Data Augmentation   
URL: https://arxiv.org/pdf/1708.04896.pdf

github: https://github.com/zhunzhong07/Random-Erasing.git

1.2 Cutout

仅对CNN第一层的输入图像使用随机剪切框Mask。

Paper:Improved Regularization of Convolutional Neural Networks with Cutout 

URL: https://arxiv.org/pdf/1708.04552.pdf

github: https://github.com/uoguelph-mlrg/Cutout.git

1.3 Hide and Seek(HaS)

将图像分割成一个由S*S大小的网格,根据概率设置随机隐藏一些网格,从而让模型学习整个对象的样子。

Paper:Hide-and-Seek: A Data Augmentation Technique for Weakly-Supervised Localization and Beyond

URL: https://arxiv.org/pdf/1811.02545.pdf

github: https://github.com/kkanshul/Hide-and-Seek.git

1.4 GridMask

将图像的区域隐藏在网格中,作用是让模型学习目标的整个组成部分。

Paper:GridMask Data Augmentation

URL: https://arxiv.org/pdf/2001.04086.pdf

github: https://github.com/dvlab-research/GridMask.git

2. 多图组合

2.1 MixUp

对图像进行混类增强的算法,不同类图像间的混合。

Paper: mixup: BEYOND EMPIRICAL RISK MINIMIZATION

URL: https://arxiv.org/pdf/1710.09412.pdf

github: https://github.com/facebookresearch/mixup-cifar10.git

2.2 CutMix

将另一个图像中的剪切部分粘贴到增强的图像中。

Paper: CutMix: Regularization Strategy to Train Strong Classifiers with Localizable Features

URL: https://arxiv.org/pdf/1905.04899.pdf

github: https://github.com/clovaai/CutMix-PyTorch.git

2.3 Mosaic

Mosaic是CutMix的扩展,CutMix为两张图像,而Mosaic数据增强是4张图像混合。好处非常明显是一张图相当于4张图,等价于batch增加了,可以显著减少训练需要的batch size大小。

 Paper:YOLOv4: Optimal Speed and Accuracy of Object Detection

URL:https://arxiv.org/pdf/2004.10934.pdf

github: https://github.com/jason9075/opencv-mosaic-data-aug.git

3. 自对抗训练(SAT)

Self-Adversarial Training是在一定程度上抵抗对抗攻击的数据增强技术。CNN计算出Loss,然后通过反向传播改变图片信息,形成图片上没有目标的假象,然后对修改后的图像进行正常的目标检测。需要注意的是在SAT的反向传播的过程中,是不需要改变网络权值的。

使用对抗生成可以改善学习的决策边界中的薄弱环节,提高模型的鲁棒性。因此这种数据增强方式被越来越多的对象检测框架运用。

4. 类标签平滑

Class label smoothing是一种正则化方法。如果神经网络过度拟合和/或过度自信,我们都可以尝试平滑标签。也就是说在训练时标签可能存在错误,而我们可能“过分”相信训练样本的标签,并且在某种程度上没有审视其他预测的复杂性。因此为了避免过度相信,更合理的做法是对类标签进行编码,以便在一定程度上对不确定性进行评估。YOLOv4使用了类平滑,选择模型的正确预测概率为0.9,例如[0,0,0,0.9,0...,0]。

  正如图像所显示的,标签平滑为最终的激活产生了更紧密的聚类和更大的类别间的分离。

  • 7
    点赞
  • 44
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
无监督的数据增强是一种用于一致性训练的技术。在机器学习任务中,一致性训练是指通过使用多个不同版本的输入数据来增强模型的鲁棒性和泛化能力。 传统的数据增强技术通常需要手动标注数据,并提供给模型进行有监督学习。然而,当可用的标注数据有限或者成本较高时,无监督的数据增强技术可以用来增加训练数据的数量和多样性,从而改善模型的性能。 无监督的数据增强技术通过对原始数据进行一系列变换和扰动来生成新的训练样本,而这些变换和扰动不需要额外的标注信息。这些变换可以包括图像翻转、旋转、缩放、平移、加噪声等等。通过这种方式,无监督的数据增强可以从有限的训练样本中生成大量的人工样本,有效地扩展了训练数据的规模和多样性。 无监督的数据增强可以用于各种机器学习任务,如图像分类、目标检测、语义分割等。通过在一致性训练中使用无监督的数据增强,模型可以学习到不同版本的输入数据之间的一致性,并提高对于噪声和变化的鲁棒性。例如,在图像分类任务中,模型可以通过看到同一张图像在不同变换下的预测结果来学习更稳定和一致的特征表示。 总之,无监督的数据增强是一种有效的技术,可以通过生成大量的人工训练样本来改善模型的性能。在一致性训练中,无监督的数据增强可以帮助模型学习到不同版本的输入数据之间的一致性,从而提高模型的鲁棒性和泛化能力。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值