理解ResNet

ResNet通过引入残差块解决了深度网络中的退化问题,有效缓解了梯度消失,使得网络能训练到非常深的层次。其核心思想是通过shortcut connection实现h(x)=F(x)+x,即使得网络能轻易逼近恒等映射或通过多层残差调整以优化性能。实验证明ResNet在解决退化问题和收敛速度上表现出色。
摘要由CSDN通过智能技术生成

ResNet(Residual Net)残差网是MSRA的何凯明团队在2015年提出来的,不但获得了2015年ImageNet的多项第一,甚至被运用到前一段时间非常火的AlphaGo Zero中去,取得了非常好的效果,可见ResNet的强大。ResNet的一个非常重要的贡献就是在深度网络中创造性地使用了残差块,从而解决了网络退化问题,大大提升了神经网络深度和效果。

1、退化问题
那什么是网络退化问题呢?也就是当模型的深度加深时,其错误率反而也提高了,如图:


这里写图片描述

在深度网络中,一般来讲,层数越深,效果会越好,因为多层网络可以通过非线性映射拟合任何函数,多出来的深层网络可以拟合输入自身,即深层网络表现至少不会比浅层网络差。但实际情况并不是如此,如果层数过深,容易出现网络退化问题,主要是因为当网络深度很深的时候,会出现梯度消失等问题。因为我们训练网络采用的方法是反向传播算法,误差反向传播公式里包含了权重系数、激活函数的导数,t层w的偏导数中还包含t+1层的激活值。当层数很深的时候,这些值连乘起来容易导致梯度消失或爆炸。

2、梯度消失问题
上面讲到当网络层数比较深的时候,会容易出现梯度消失或爆炸,我们可以通过一个简单的网络来分析。
假设有一个四层隐藏的神经网络,为简便计算,每层只有一个神经元,如图:


这里写图片描述

前向传播公式为:
zjaj=wjaj1+bj=σ(zj)

如果我们要求误差对 b1 的导数,也就是:
Cb1=C
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值