https://zhuanlan.zhihu.com/p/103267422
论文阅读】random erasing data augmentation code
论文说明
论文为CNN训练提出了一种新的数据增强方法。Random Erasing,在一张图片中随机的选择一个矩形框,在随机的位置上使用随机的值来擦除图片原来的像素。通过该方法能够给图片加入不同程度的遮挡,通过这样的训练数据,可以减少模型过拟合的风险同时对遮挡具有一定的鲁棒性。随机擦除和random cropping,random flipping一样可以作为数据增强的方法,在分类,检测和行人重识别领域能够取得不错的效果。
论文算法
作为图片预处理方法,思想比较简单,主要算法如上图,输入图片 ,擦除的概率 ,擦除区域比例范围从 ,以及长宽比概率范围从 。
首先根据概率 确定一张图片是否需要擦除:
则不对图片进行处理,反之,则需要擦除。
根据输入图片 可以得到图片的长宽 ,继而可以得到面积 。根据 得到擦除的面积 ,擦除面积的长宽根据下式得到:
再根据 得到在原图中擦除的左上角位置 。加上长宽 便可以得到擦除区域的位置。考虑到 的情况,一旦是该情况便重复该算法,直到满足 。实际上随机的区域限定在一个范围就好,没必要做重复的操作。具体的擦除代码
论文实验
论文提出的数据增强法法简洁实用,做的一些实验很值得我们以后利用,这也是之前一直只是用该方法却没有看该论文的遗憾,其实论文做了很多实验,分析了一些有用的东西。
image classification
作者参数设置为 分类实验都是在加了random cropping 和flipping基础上做的,
可以看到基本上加上random erasing对实验结果都是有提升的。
比较数据增强方法:
通过实验可以发现效果最好的是random cropping方法,其次是random flipping ,最后才是random erasing。但是三种一起使用确实能得到最好的效果。
Person re-identification
行人重识别参数设置为 ,作者的实验总结了一个我不久前才知道的一个事情。当每个ID下数据较多时,像market1501和duke数据集,使用softmax方法的效果要优于三元组的方法,而当每个ID下数据较少时,也就是每个类别缺乏足够的训练样本,使用三元组的效果要优于softmax。当数据量大的时候需要考虑下该情况