概念:
残差网络(Residual Network,简称ResNet)是一种深度卷积神经网络架构,它在2015年由微软研究院的Kaiming He等人提出。ResNet解决了深度学习领域中的一个关键问题:随着网络深度的增加,网络的性能反而可能下降。这一现象被称为梯度消失和梯度爆炸,它们会导致在训练过程中难以有效地更新网络权重。
如何解决问题?
为了解决梯度消失或梯度爆炸问题,论文提出通过数据的预处理以及在网络中使用 BN(Batch Normalization)层来解决。 为了解决深层网络中的退化问题,可以人为地让神经网络某些层跳过下一层神经元的连接,隔层相连,弱化每层之间的强联系。这种神经网络被称为 残差网络 (ResNets)。
residual结构使用了一种shortcut的连接方式,也可理解为捷径。让特征矩阵隔层相加,注意F(X)和X形状要相同,所谓相加是特征矩阵相同位置上的数字进行相加。
ResNet的组成:
-
残差块(Residual Block):
- 每个残差块包含输入和输出之间的一条捷径(shortcut connection)或恒等连接(identity shortcut)。
- 捷径连接可以跳过一个或多个卷积层,将输入直接添加到输出。
-
恒等映射ÿ