卷积神经网络-ResNet

背景知识
研究表明,特征的层次随着堆叠的层数(层深度)增加变得丰富。许多研究开始致力于加深层深度。
随着层深度的重要性的突显,一个问题也被提出:Is learning better networks as easy as stacking more layers?
首先,梯度消失/爆炸是一个巨大的挑战,该问题可以通过正则初始化和层正则化解决。
随着层深度的加深,另一个重要问题:精度退化和训练错误率增加。(该问题不是由过拟合导致的)


残差结构
退化问题表明,相应的解决方法在用多个非线性层逼近恒等映射时存在困难。
本文提出一个残差网络:
denoting the desired underlying mapping as H(x), we let the stacked nonlinear layers fit another mapping of F(x) := H(x)-x. The original mapping is recast into F(x)+x.
注上述均为初步假设,后期通过训练可以实现假设。
对于残差结构,当恒等映射时最优的时候,可以接单的将多个非线性层权重置零以得到恒等映射。


Identity mapping is sufficient for addressing the degradation problem and is economical, and thus Ws is only used when matching dimensions.
 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值