数据增强:裁剪 》 flip 》 erasing(缓解遮挡)

https://zhuanlan.zhihu.com/p/103267422

论文阅读】random erasing data augmentation code

论文说明

论文为CNN训练提出了一种新的数据增强方法。Random Erasing,在一张图片中随机的选择一个矩形框,在随机的位置上使用随机的值来擦除图片原来的像素。通过该方法能够给图片加入不同程度的遮挡,通过这样的训练数据,可以减少模型过拟合的风险同时对遮挡具有一定的鲁棒性。随机擦除和random cropping,random flipping一样可以作为数据增强的方法,在分类,检测和行人重识别领域能够取得不错的效果。

论文算法

作为图片预处理方法,思想比较简单,主要算法如上图,输入图片 [公式] ,擦除的概率 [公式] ,擦除区域比例范围从 [公式] ,以及长宽比概率范围从 [公式] 。

首先根据概率 [公式] 确定一张图片是否需要擦除:

[公式]

[公式] 则不对图片进行处理,反之,则需要擦除。

根据输入图片 [公式] 可以得到图片的长宽 [公式] ,继而可以得到面积 [公式] 。根据 [公式] 得到擦除的面积 [公式] ,擦除面积的长宽根据下式得到:

[公式]

再根据 [公式] 得到在原图中擦除的左上角位置 [公式] 。加上长宽 [公式] 便可以得到擦除区域的位置。考虑到 [公式] 的情况,一旦是该情况便重复该算法,直到满足 [公式] 。实际上随机的区域限定在一个范围就好,没必要做重复的操作。具体的擦除代码

论文实验

论文提出的数据增强法法简洁实用,做的一些实验很值得我们以后利用,这也是之前一直只是用该方法却没有看该论文的遗憾,其实论文做了很多实验,分析了一些有用的东西。

image classification

作者参数设置为 [公式] 分类实验都是在加了random cropping 和flipping基础上做的,

可以看到基本上加上random erasing对实验结果都是有提升的

比较数据增强方法:

通过实验可以发现效果最好的是random cropping方法,其次是random flipping ,最后才是random erasing。但是三种一起使用确实能得到最好的效果。

Person re-identification

行人重识别参数设置为 [公式] ,作者的实验总结了一个我不久前才知道的一个事情。当每个ID下数据较多时,像market1501和duke数据集,使用softmax方法的效果要优于三元组的方法,而当每个ID下数据较少时,也就是每个类别缺乏足够的训练样本,使用三元组的效果要优于softmax。当数据量大的时候需要考虑下该情况

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值