1.残差网络实现及其应用:
CSDN上关于残差网络的表述很多,基本都是按照论文里翻译过来,大家可以自行搜索论文关于残差网络的介绍。本文讲诉残差网络块的具体情况,以及在图像处理方面的使用。
上图是从论文中节选出来的残差块结构,要想弄明白残差块的具体应用,需要弄清楚两个概念:
1.恒等映射:
上图中有一个曲线,称为shortcut connection(快捷连接),就是恒等映射。既不增加额外参数,也不增加计算复杂度。而恒等映射表示:输入=输出;
2.图中F(x)的作用:
图中F(x)执行卷积操作,目的是提取图片中的更多特征,或者是其它层没有学习的特征;
残差块理解
残差网络提出的目的就是为了减少梯度消失,更多的提取特征。假设我们输出目标是H(x),通过上图操作,实际输出是F(x)+x,因此F(x)=H(x)-x就是我们的目标残差。换个角度思考,假设网络模型优化的很好,通过卷积和池化已经提取不了特征,那么网络中F(x)=0,则残差块输入等于输出,这时候就变成恒等映射。很多利用残差块叠加深层神经网络,即使层数很多,但是运行时间没有很大提升&#