残差网络(ResNet),在ILSVRC 2015年取得冠军,该框架能够大大缩减简化模型训练时间,使得在可接受范围内,模型训练的更深。
在深度学习领域中,网络越深意味着拟合越强,出现过拟合问题是正常的,训练误差越来越大却是不正常的。但是,网络逐渐加深会对网络的反向传播能力提出挑战,在反向传播中每一层的梯度都是在上一层的基础上计算的,层数多会导致梯度在多层传播时越来越小,直到梯度消失,于是表现的结果就是随着层数变多,训练的误差会越来越大。
残差网络通过一个叫残差连接的技术解决了这个问题。所谓的残差连接就是在标准的前馈卷积网络上加一个跳跃,从而绕过一些层的连接方式。
假设,经过两个神经元之后输出的 H ( x ) H(x) H(x