AutoAugment

AutoAugment

在AutoAugment中将寻找最好数据的问题看作是一个离散检索问题。通过搜索每一个数据增强策略。对于每一个搜索问题,主要分成两个主要的方面,一个是搜索空间和搜索算法。搜索算法在采样空间中采样一系列图像增广的方法,S。
对于每一个S都有两个主要的参数,一个是what image processing operation to use,一个是 the probability of using the operation in each batch。
在AutoAugment中有一个controller(RNN)来控制这一切。对于将不同的policy S送入到相同的网络中肯定得到的检测结果是不同的。于是,为了训练controller,本文通过Validation accuracy R来训练controller。the controller will be updated by policy gradient methods。
为了实现最优,我们需要两个重要的东西。
一个是我们应该怎么去augment,有哪些augment手段去选择。于是我们需要一个检索空间。这个检索空间的每一个元素对应一个子策略sub-policy。每个sub-policy中又包含多个不同的augment method。每个augment method又包含调控每个augment参数。具体形式如下。
sub_policy = [
[(‘Posterize’, 0.8, 2), (‘TranslateX_BBox’, 1.0, 8)],
[(‘BBox_Cutout’, 0.2, 10), (‘Sharpness’, 1.0, 8)],
[(‘Rotate_BBox’, 0.6, 8), (‘Rotate_BBox’, 0.8, 10)],
[(‘Equalize’, 0.8, 10), (‘AutoContrast’, 0.2, 10)],
[(‘SolarizeAdd’, 0.2, 2), (‘TranslateY_BBox’, 0.2, 8)],
[(‘Sharpness’, 0.0, 2), (‘Color’, 0.4, 8)],
[(‘Equalize’, 1.0, 8), (‘TranslateY_BBox’, 1.0, 8)],
[(‘Posterize’, 0.6, 2), (‘Rotate_BBox’, 0.0, 10)],
[(‘AutoContrast’, 0.6, 0), (‘Rotate_BBox’, 1.0, 6)],
[(‘Equalize’, 0.0, 4), (‘Cutout’, 0.8, 10)],
[(‘Brightness’, 1.0, 2), (‘TranslateY_BBox’, 1.0, 6)],
[(‘Contrast’, 0.0, 2), (‘ShearY_BBox’, 0.8, 0)],
[(‘AutoContrast’, 0.8, 10), (‘Contrast’, 0.2, 10)],
[(‘Rotate_BBox’, 1.0, 10), (‘Cutout’, 1.0, 10)],
[(‘SolarizeAdd’, 0.8, 6), (‘Equalize’, 0.8, 8)],
]
在原文中总共有16个operations被运用。原文中,作者将原文将每个参数range量化成10个values。同时,将每个参数的possibilities量化成11个参数。总共有 p o s s i b i l i t i e s = ( 16 × 10 × 11 ) 2 possibilities=(16\times10\times11)^2 possibilities=(16×10×11)2可能。
搜索算法细节:搜索算法通过强化学习实现。搜索算法主要有两个部分组成,一个是controller(RNN网络),一个是优化算法选用的是Proximal Policy Optimization algorithm 近端策略优化算法。每一次迭代,controller会输出predicated的augment method。总共控制器有30个softmax predictions 去预测5个子策略,每个子策略有两个operations,每个operations需要operation type,magnitude和probability。
controller如何训练。controller是被自己的child model优化。相比于gan的平等的竞争的关系。autoaugment的controller和child model(detector)相当于上下级的关系,controller控制着detector的训练过程的一切。对于每一个example在mini-batch中的,5个sub-policies被随机选择去augment the image。在每个训练的过程中,中设立一个validation数据集,通过validation数据集,得到目前数据的detector情况,这用来给controller一个反馈。

这论文一言以蔽之,比遍历强。但也仅仅是比遍历强。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值