Two at Once: Enhancing Learning and Generalization Capacities via IBN-Net
在WAD 2018的Drivable Area track 的task中,获得了冠军,mIoU达到86.18%
motivation
由于数据集众多,导致当前的CNN模型基本上只适用于某一个domain或者task,如何在不fine-tuning的情况下使得模型可以跨数据集?本文提出了IBN-Net。
图a 表示真实数据集和虚拟数据集
图b 表示同一张图片不同色调和亮度
图c 表示同一张图片不同风格(莫奈和梵高)
解决上面这些差异性的方式就是让网络尽可能的习得图片的不变性,而不是针对变化设计新的模型。
contribution
- 提出了一个新的模型结构,可以提升深度神经网络在learning和generalization上的能力。IBN-Net50在ImageNet上取得了比ResNet50更好的效果,并且参数量和计算量更小
- 仔细分析了IN和BN在神经网络中的用处
上图中,y轴