Notes on ResNet

这篇博文是博主读过何恺明及其团队的论文Deep Residual Learning for Image Recognition所做的总结,如有错误,欢迎指正!

人们主观的认为更深层的神经网络可以更好的拟合训练数据,因为深层网络会有更多的参数来学习更多的细节。但随着神经网络层数的增加,在执行反向传播的过程中很容易遇到梯度爆炸或消失的问题,从而使学习效率降低甚至不收敛。该类问题可以通过合理的初始化参数(He and Xavier Initialization)以及消除内部协变量漂移(BatchNormalization)得到妥善的解决。

然而,即便深层的神经网络开始收敛,文章中又提出了网络退化的问题(degradation):网络层数增加,准确率开始饱和,训练误差增大。下图比较了20层和56层网络的训练何测试误差,可以看出56层网络有更高的训练和测试误差。
在这里插入图片描述
但是我们可以通过在20层网络中增加36层恒等映射层(identity mapping)来构造一个和20层网络具有相同性能的56层网络,而通过直接训练56层网络却达不到这种效果。说明深层网络并不善于学习恒等映射。为了解决这一问题,ResNet 利用shortcut connection直接将输入恒等映射到输出层并和输出相加,如下图所示:

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值