深度学习的「深」,更多是指模型的层数深。然而,卷积神经网络单纯的堆叠层数,会出现梯度消失、梯度退化和网络退化的问题。2015年何凯明,张翔宇,任少卿,孙剑四位华人提出ResNet。
- 不断的提高网络性能
- 达到最优性能时多余的网络层做恒等映射
模型结构
- 构建残差块
- 堆叠残差块
残差块Residual block
![49eb9e40386f5f9e1467d737e911b7ee.png](https://img-blog.csdnimg.cn/img_convert/49eb9e40386f5f9e1467d737e911b7ee.png)
如上图,在原来的普通的网络基础上,每两层加上一个捷径连接(hortcut connection),H(x) = F(x) + x,构成一个残差块。多个残差块堆叠成一个残差网络。
![39a375603682d1780880948ac1ebff7e.png](https://img-blog.csdnimg.cn/img_convert/39a375603682d1780880948ac1ebff7e.png)
卷积核
上图左:ResNet34 两层残差单元使用两个3*3的卷积核。
上图右:ResNet50/101/152 三层残差单元使用1*1、3*3、1*1卷积核
ResNet34
感受一下34层的深度残