泛化神器!李沐等人提出两种正则化技术:在CV和NLP均有大幅度提升

点击上方“CVer”,选择加"星标"置顶

重磅干货,第一时间送达

本文转载自:AI人工智能初学者

论文:https://arxiv.org/abs/2102.02811

本文提出2种解决out-of-distribution(OOD)问题的正则化技术:SelfNormCrossNorm,两者还可以相互补充,实验证明该方法在CV/NLP、分类/分割、监督/半监督上效果显著!
作者单位:罗格斯大学, 亚马逊AWS(李沐等人)

1 简介

正则化技术对于稳定和加速深度神经网络的训练至关重要。但是,目前的正则化方法主要是针对独立且均匀分布(IID)的数据而设计的,不能满足许多实际的out-of-distribution(OOD)情况。

与大多数以前的工作不同,本文提出了2种归一化方法,SelfNorm和CrossNorm,以促进OOD泛化。SelfNorm会注意重新校准统计信息(按通道均值和方差),而CrossNorm在特征图之间交换统计信息。尽管在统计使用方面探索了不同的方向,但SelfNorm和CrossNorm在OOD泛化中可以相互补充。在不同领域(CV和NLP),任务(分类和分割)和设置(监督和半监督)的广泛实验表明了该方法的有效性。

本文主要贡献

  • 1、提出了SelfNormCrossNorm这2种标准化技术来增强out-of-distribution(OOD)泛化;

  • 2、SelfNormCrossNorm在利用特征均值和方差提高模型鲁棒性方面形成了对立统一;

  • 3、SelfNormCrossNorm与领域无关,可以提高不同领域(CV或NLP)、设置(监督和半监督)和任务(分类和分割)的性能。

2 相关概念阐述

2.1 Out-of-distribution generalization

尽管目前的深度模型继续在benchmark IID数据集上打破记录,但它们仍然难以推广到由常见的损坏和数据集差距造成的OOD数据。

为了提高鲁棒性,StylizedImageNet进行了风格增强,以减少cnn的纹理偏向。最近,AugMix通过混合基于随机图像语义或图像到图像网络的多个增强图像来训练具备鲁棒性的模型;对抗噪声训练(ANT)和无监督域自适应也可以提高抗腐蚀的鲁棒性。

CrossNorm与AugMix和ANT正交,使它们的联合应用成为可能。与程式化的imagenet相比,CrossNorm有2个主要优点:

  • 1、CrossNorm是有效的,因为它直接在目标CNN的特征空间中迁移Styles。然而,Stylized-ImageNet依赖于external style datasets和预训练style transfer模型;

  • 2、CrossNorm可以提高干净数据和损坏数据的性能,而Stylized-ImageNet会损害clean generalization,因为external styles会导致分布迁移。

除了常见的损害之外,在不同数据集之间存在分布差异的泛化也仍然具有挑战性。IBN混合了IN和BN来缩小域距离。Domain Randomization在分割数据集上使用style augmentation来进行Domain泛化。它遇到了与Stylized-ImageNet相同的问题,因为它还使用了预先训练的Styles传输模型和附加的Styles数据集。与IBN和Domain Randomization方法相比,SelfNorm可以通过style recalibration来弥补不同Domain之间的差异CrossNorm可以更有效地平衡源域和目标域的性能

除CV领域之外,许多自然语言处理(NLP)也面临着分布泛化的挑战。SelfNormCrossNorm也可以提高模型在自然语言处理领域的鲁棒性。

2.2 Normalization and attention

BN是一项具有里程碑意义的技术,它激发了以下许多规范化方法,如IN、LN和GN。最近,一些工作将attention整合到特征规范化中。模式归一化和注意归一化使用attention来衡量BN的混合。

Mode Normalization和Attention Normalization通过attention学习多种类型的归一化。相比之下,SelfNorm只使用了带注意力的IN。更重要的是,不像以前的标准化方法,SelfNorm和CrossNorm的目标是改进外分布泛化。

此外,SelfNorm和CrossNorm虽然使用了相似的attention,但也有所不同。首先,SelfNorm学习重新校准Channel的均值和方差,而不是在SE中的Channel特征。其次,SE是对Channel之间的相互依赖性进行建模,而SelfNorm则对每个Channel进行独立处理。同样, 的SelfNorm unit比 的SE unit更简单,其中n表示Channel数。

2.3 Data augmentation

Data augmentation是训练深度模型的重要工具。目前流行的Data augmentation技术要么是label-preserving,要么是label-perturbing。label-preserving方法通常依赖于特定领域的图像语义,例如旋转和颜色,这使得它们不适合视觉领域以外的任务。label-perturbing技术主要用于分类,在更广泛的领域可能会有问题。CrossNorm作为一种Data augmentation方法,很容易应用于不同的领域(CV和NLP)和任务(分类和分割)。CrossNorm的目的不同于以往的许多Data augmentation方法,CrossNorm的目的是促进外分布泛化。

3 SelfNorm and CrossNorm

3.1 背景

从原理来说,SelfNorm和CrossNorm来自于同一个起源:IN。在2D CNNs中,每个实例有C个大小为 的Features Map。这里给定 ,IN首先对特征图进行归一化,然后进行仿射变换:

这里, 分别为均值与标准差, 为待学习的仿射变换超参数;

如图所示,style transfer实验证实了 可以编码一些style信息。

3.2 SelfNorm

如图2所示,SelfNorm使用 代替 ,其中 是注意力函数。调整后的通道变成:

学会根据自己来衡量 时, 通过self-gating来标准化自己,也就是SelfNorm。SelfNorm的灵感来自于注意力可以帮助模型强调有用特征和抑制无用特征。就重新校准 而言,SelfNorm希望突出区别风格,而降低微弱风格。

在实践中,作者使用了一个全连接(FC)网络来包装注意力函数 。由于其输入和输出都是标量,因此该体系结构是高效的。由于每个Channel都有自己独立的统计量,SelfNorm使用C轻量级的FC网络单独重新校准每个信道,因此仅仅只有 的复杂度。

3.3 CrossNorm

如图所示,CrossNorm将通道 与通道 交换,即改变 相互之间的 :

相互标准化,因此称为CrossNorm。CrossNorm的动机是基于一个关键的观察,即一个目标数据集,例如一个分类数据集,具有丰富的Styles。具体来说,每个实例,甚至每个通道,都有其独特的风格。交换统计信息可以有效地进行Style扩展,减少决策时的Style偏差。在小批量训练中,一般以一定的概率使用CrossNorm。

3.4 对立统一

SelfNorm和CrossNorm都是从IN开始的,但方向相反。SelfNorm重新校准统计数据,只关注必要的Style,减少标准化特征(零均值和单位方差)和统计混合多样性。而CrossNorm在Channel间传递统计信息,丰富了标准化特征与统计信息的结合。它们执行相反的操作主要是因为它们针对的是不同的阶段。SelfNorm致力于在测试中进行Style的重新校准,而CrossNorm只在训练中起作用。请注意,SelfNorm是一个可学习的模块,需要训练才能发挥作用。

上图显示了SelfNorm和CrossNorm的流程图。此外,SelfNorm有助于降低模型对外观变化的敏感性,而CrossNorm旨在减少模型的Style偏差。尽管有这些差异,它们都可以促进分布外推广。此外,CrossNorm可以提高SelfNorm的表现,因为它的Style增强可以防止SelfNorm过拟合特定的Style。总的来说,这两种看似对立的方法形成了一个统一,即使用标准化统计来提高分布外的鲁棒性。

3.5 CrossNorm变体

CrossNorm的核心思想是在特征映射之间交换均值和方差。不同的特征映射选择会导致不同的CrossNorm变体。

1-Instance mode

对于2D CNNs,给定一个实例 ,CrossNorm可以在其之间交换统计数据C Channels如下:

2-Instance mode

如果给定2个实例 ,CrossNorm可以在它们对应的通道之间交换统计信息,即 变成:

与1-Instance mode CrossNorm相比,2-Instance mode CrossNorm倾向于考虑实例级Style而不是通道级Style。

Crop

此外,不同的空间区域可能有不同的均值和方差统计量。为了促进风格的多样性,建议对Crop区域进行CrossNorm:

其中,crop函数返回一个面积比为 不小于阈值t(0<t<=1)的正方形。整个通道Crop是Crop的一个特例,这里不进行讨论。一般有3种Crop选择:Crop内容Crop Style两者都Crop。对于内容Crop,只在使用A的标准化特征图时才进行Crop。换句话说,当A向B提供其统计数据时,不会对其进行Crop。Crop意味着CropA和B,无论使用的是它们的标准化特征图还是统计数据。这种Crop策略可以产生不同的1-Instance和2-Instance CrossNorm。

3.6 模块化设计

SelfNorm和CrossNorm可以自然地在特征空间中工作,使得它们可以灵活地插入到多个网络位置。这就产生了两个问题:需要多少个Units,把它们放在哪里

为了简化问题,作者将它们嵌入到网络单元中,转而采用模块化设计。

例如,在ResNet中,把它们放到一个residual模块中。对于residual模块中有限的位置,搜索空间显著缩小。模块化设计允许在一个网络中使用多个SelfNorm和CrossNorm。作者在消融研究中表明,累积style重新校准有助于模型的鲁棒性。由于过度的style扩展是有害的,因此作者在前向推理的过程中只是随机地启用一些CrossNorm。

4 实验结果

mCE on CIFAR-10-C and CIFAR-100-C

从表1可以看出,单独的SN和CN对看不见的腐蚀的鲁棒性优于大多数以前的方法,将它们组合在一起CIFAR-10-C和CIFAR-100-c上的平均误差都降低了12%。一个可能的解释是腐蚀主要改变了图像纹理。

通过Style的重新校准和增强,SN和CN可能有助于降低纹理的敏感性和偏差,使分类器对看不见的腐蚀更加健壮。此外,与领域无关的SN和CN与AugMix正交,而AugMix依赖于特定于领域的操作。联合使用可以在AugMix的基础上继续将mCEs降低2.2%和3.6%

Ablation study of IBN,SN,CN

从表1可以看出,在ResNet50+IBN-a的基础上将CN+AM组合在一起使用mCE在原有IBN-a的基础上降低了8.7%;在ResNet50+IBN-b的基础上将SNCN+AM组合在一起使用mCE在原有IBN-b的基础上降低了11.3%;可以看出都是比较大的提升。

CN可视化在头部(左),尾部(中)2块和开始3块(右)在一个WideResNet-40-2。内容(行)和样式(列)图像都来自CIFAR-10。与第1块CNs相比(如图5所示),第2块CNs和第3块CNs的风格传递效果较弱,因为High-Level Features Map的统计信息可能包含较少的Low Level视觉信息。

5 参考

[1].SelfNorm and CrossNorm for Out-of-Distribution Robustness

点击下方卡片并关注,了解CV最新动态

CV资源下载

后台回复:CVPR2020,即可下载代码开源的论文合集

后台回复:ECCV2020,即可下载代码开源的论文合集

后台回复:YOLO,即可下载YOLOv4论文和代码

后台回复:Transformer综述,即可下载两个最新的视觉Transformer综述PDF,肝起来!

重磅!CVer-细分垂直交流群成立

扫码添加CVer助手,可申请加入CVer-细分垂直方向 微信交流群,可申请加入CVer大群,细分方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、Transformer、PyTorch和TensorFlow等群。

一定要备注:研究方向+地点+学校/公司+昵称(如目标检测+上海+上交+卡卡),根据格式备注,才能通过且邀请进群

▲长按加微信群

▲点击上方卡片,关注CVer公众号

整理不易,请给CVer点赞和在看

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值