残差网络:为什么残差网络效果比较好?

模型越深,就会出现梯度消失,梯度爆炸的现象,导致深模型难训练。
Residual Networks 网络很深,但是效果很好,这是怎么做到的呢?
------参考吴恩达老师的讲解
resnet的突破:加入skip connections
残差块:
在这里插入图片描述
残差块具体操作位置:
在这里插入图片描述
一般网络计算:
在这里插入图片描述

残差网络计算:
在这里插入图片描述
模型越深,w,b可能会消失到0,继续训练,很难更新参数,很难再训练。而resnets采用了short cut,增加了a[l],可以将residual block看成是identity function:f(x)=x(返回自己),如下式,返回a[l]:在这里插入图片描述
同时采用same padding或者为a[l]添加权重矩阵,使得Z[L+2]与a[l]的shape一致,计算方便。
残差网络具体构造:
在这里插入图片描述
same padding,输出shape一致,下面的虚弧线代表pooling,会导致长宽缩小,此时shape不一致,使用权重矩阵来提高a[l]维数,让shape保持一致。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值