ResNet网络学习(一):对残差单元对理解

相比其他的网络结构,resnet的网络更深,网络更深对于深度学习来说就能学习到更多的东西,效果也更好。但是是不是网络越深,效果就一定更好呢?在论文中,作者提到分别用56层和20层的网络做训练和测试,更深的网络有更高的错误率。

出现这种情况不是因为过拟合,而是因为深度学习过程中存在一个重要的问题:梯度爆炸和梯度消失

深度残差网络就是为了解决这一个问题,这样一来,模型深度的增加才可以有效地提高模型的性能。

设计思路是这样的:

我们考虑这样一种情况:现有一个浅层的架构,我们在它上面增加更多的层,这里存在一种架构是这些层是较浅层的恒等映射(identity mapping),即没有学习到任何新特征,即使这样,新得到的模型的效果也与之前的一样,并不会出现退化(degradation)。所以肯定是当前的训练方法有问题,才导致退化的现象。

作者提出一种深度残差学习(deep residual learning)框架,不同于以往直接用底层特征作为映射,我们用一个残差映射代替。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值