论文: Wide Residual Networks
简介
随着模型深度的加深,梯度反向传播时,并不能保证能够流经每一个残差模块的权值,以至于它很难学到东西.训练十分深的残差网络仍会有特征重用消失的问题,训练速度会减慢.
wide residual networks (WRNs)减少深度,但是增加了残差块的宽度.作者希望使用一种较浅的,但是宽度更宽的模型,来更加有效的提升模型的性能.
说明残差网络的能力主要由残差block提供,网络深度只有补充性的作用
WRN
如上图所示,a,b是Resnet提出的残差块.分别为Basic和Bottleneck block
而c,d是本文提出的更宽的残差块.c是加宽的Basic block.
另外前人把dropout插入到残差网络的Identity连接上面,会导致性能下降.而作者认为应该像d一样,把dropout插入的卷积层之间.
ResNet原文使用了三种Residual Block,output channel分别为16,32,64.网络的深度为6*N+2.
而本文作者通过增加output channel的数量来使模型变得更wider,他在output channel都增加了系数k
引入两个因子:
- 深度因子l,表示一个block中包含的卷积层数量
- 宽度因子k,卷积层输出特征图数量的倍数
下表显示了本文网络的具体配置,k控制残差block的宽度