ECCV 2020 | DADA:高效的可微分自动数据增强技术(已开源)

点击上方,选择星标置顶,不定期资源大放送

阅读大概需要5分钟

Follow小博主,每天更新前沿干货

者:Guosheng Hu

原文链接:https://zhuanlan.zhihu.com/p/162003816

本文仅供学习参考,如有侵权,请联系删除!

我们被ECCV 2020接收的工作 DADA: Differentiable Automatic Data Augmentation 使用可微分算法进行数据增广策略搜索任务。该方法大大提升了搜索效率,相较于以往经典的AutoAugment算法,我们的搜索代价从5000 GPU Hours缩减到了0.1 GPU Hours,并且该方法的准确率还保持和以往方法相当。

  • 论文:https://arxiv.org/abs/2003.03780

  • 开源代码:https://github.com/VDIGPKU/DADA

详细介绍:

数据增广对于提升模型泛化性能有着很大的帮助,但是手工设计的数据增广操作(如Cutout、MixUp和MixCut等)比较依赖于专家知识,同时需要大量的调参,因此适用范围有限。受Neural Architecture Search(NAS)启发,AutoAugment提出用强化学习算法进行数据增广策略搜索任务,探索16个不同的手工设计数据增广操作如何组合以提升模型性能。然而强化学习算法搜索效率过低,在CIFAR-10的代理数据集上进行搜索仍然需要5000 GPU Hours。受到DARTS算法启发,我们提出了可微分网络架构搜索算法在数据增广策略搜索任务上。具体来说(如下图所示):

1. 我们首先将数据增广策略搜索形式化为对105个sub-policies的categorical-distribution采样问题,对sub-policies里每个操作的概率作为bernoulli-distribution采样问题。

2. 我们将上述分布的参数优化问题通过gumbel-softmax松弛为可微分的参数优化问题。同时借助Straight-Through梯度估计器,我们每次只采样一个sub-policies,提升了图片处理的速度。

3. 其次,为了针对gumbel-softmax优化过程中的梯度biased的问题,我们提出了使用RELAX估计器估计上述分布的梯度,使得梯度unbiased,使得搜索过程中梯度更新更加稳定。

4. 最后我们提出了one-pass联合优化策略,交替优化模型权重和数据增广策略参数梯度。

上述算法使得我们在大大提升数据增广策略搜索效率的同时,还保证了模型性能。

最后通过在CIFAR-10、CIFAR-100、SVHN和ImageNet数据集进行实验上,我们的搜索算法对相对以往搜索算法,如Fast AutoAugment,搜索效率提升了一个数量级,但是模型性能仍然相当,如下表所示(其他数据集性能详见论文):

除此之外,我们也将数据增广训练的ImageNet模型作为目标检测的预训练模型,也提升了RetinaNet、Faster R-CNN和Mask R-CNN的性能。后续工作将尝试直接将我们的算法直接应用到目标检测任务上。

重磅!DLer-计算机视觉交流群已成立!

欢迎各位Cver加入计算机视觉微信交流大群,本群旨在交流图像分类、目标检测、点云/语义分割、目标跟踪、机器视觉、GAN、超分辨率、人脸检测与识别、动作行为/时空/光流/姿态/运动、模型压缩/量化/剪枝、NAS、迁移学习、人体姿态估计等内容。更有真实项目需求对接、求职内推、算法竞赛、干货资讯汇总、行业技术交流等,欢迎加群交流学习!

进群请备注:研究方向+学校/公司+昵称(如图像分类+上交+小明)

广告商、博主请绕道!

???? 长按识别添加,邀请您进群!

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值