ResNet模块
因为要用到3D 残差模块,顺便把2D残差模块也笔记一下。
1、ResNet 2D模块
根据神经网络的数学本质,随着网络层数的增加,神经网络的效果应当越来越好,也即是损失函数会是逐渐下降的光滑曲线。然而,在实际的操作中却不符合这个规律,有兴趣的读者可以Google相关的知识,这里不赘述。
其中一种可能的原因是深度网络出现的梯度消失问题,为了解决梯度消失的问题,事实上人们已经提出了很多的技巧,比如利用ReLu,LeakyRelu去代替Sigmoid作为激活函数。深度残差网络是2015年由Kaiming He提出的一种看似简单但是极为有效的网络结构,在单纯的前向传播基础上深度残差网络增加了跃层连接(Skip Connection)。实践表明,深度残差网路可以有效地改善“深度”网络的性能。
这里我们以上图为例简单解释为什么看似简单的操作能够解决深度网络中梯度消失的问题:
假设网络输入为 x x