盘点CVPR2021中5篇数据扩增论文
数据扩增一直是竞赛中非常重要的一环,在CVPR 2021论文中有不少的数据扩增方法,本文将对其中通用的论文进行介绍。
1. KeepAugment
出发点:现有的数据扩增方法可能会改变数据的分布从而在推理过程中损害未增强数据的性能,进而会带来模型精度的影响。为了缓解这个问题,我们提出了一种简单而高效的方法,称为 KeepAugment,以提高增强图像的保真度。
核心操作:使用显著图(Saliency Map)计算得到图片中的关键信息区域,并进行保留。
KeepAugment的思路:可以分为将原图有信息的位置进行保留,或者将原图有信息的区域贴到其他图片上。
KeepAugment:的具体操作:与CutOut和CutMix联系精密,可以视为加入注意力的操作,但在精度上只有一点点提升。
2. SuperMix
出发点:CutMix和MixUp在对样本进行操作的过程中,并不能很好的样本进行结合,没有考虑到样本的关键区域。
核心操作:对于每张图片计算得到显著区域,并根据两张图片的显著区域结合优化完成聚合操作。
SuperMix的计算过程中涉及到图片Mask维度的优化,因此在训练过程中较为复杂,在精度上提升幅度与 KeepAugment差不多。
3. MoEx
出发点:现有的数据操作都是使用相同的均值和方差来归一化,每张图片的像素均值和方差带有很多的语义信息。
核心操作:分别两张图片的均值和方差,由于图片内容存在差异,进而可以体现出具体的语义区域。
MoEx可以视为一种特征空间的数据扩增方法,可以与CutMix和MixUp配合一起使用。
4. StyleMix
- 论文链接:StyleMix: Separating Content and Style for Enhanced Data Augmentation
- 代码链接:https://github.com/alsdml/StyleMix
出发点:使用图像的风格和内容两个角度来改善图像插值的过程。
核心操作:使用中间层计算内容和风格权重,进而对两个图像进行插值
StyleMix可以视为Mixup的扩展,也可以与CutMix一起使用。但想法很美好,但精度没有明显提升。
5. MaxUp
- 论文链接:MaxUp: Lightweight Adversarial Training with Data Augmentation Improves Neural Network Training
出发点:用随机扰动或转换方法生成一系列增强数据,从中挑选损失最大的用于更新网络。
核心操作:产生随机样本,用最小化损失最大的增强样本替代了最小化增强样本的平均损失。
参考文章:
【1】 微信公众号《Coggle数据科学》