ResNet 精读笔记和代码实现

本文深入探讨了ResNet深度残差网络,解释了如何通过残差学习结构解决深度网络的退化和训练问题。文章讨论了初始化、Batch Normalization对防止梯度消失的作用,并详细介绍了ResNet的不同变体,包括Bottleneck结构和不同残差模块的设计。此外,还提供了官方和个人的PyTorch实现代码链接。
摘要由CSDN通过智能技术生成

Deep residual learning for image recognition

阅读地址:Deep residual learning for image recognition

推荐学习视频:ResNet论文逐段精读【论文精读】&【精读AI论文】ResNet深度残差网络

被引用次数:115232(截至2022.05.02)

知乎同篇文章:ResNet 精读笔记和代码实现 - 知乎 (zhihu.com)

官方开源:pytorch_ResNet

个人实现:GitHub:ResNet-Code-with-ReadingNotes

注:建议配合食用Identity Mappings in Deep Residual Networks

提供的思路

神经网络不需要去拟合复杂的底层映射了,只需要拟合在原来输入的基础上要进行哪些偏移,哪些修改,最总只要拟合残差就好了

这样使深的网络不会比浅层网络效果更差,最多只会让后续网络变为恒等映射

提出残差学习结构解决非常深网络的退化问题和训练问题

每层都学习相对于本层输入的残差,然后与本层输入加法求和,残差学习可以加快优化网络,加深层数,提高准确度

直接将网络堆深

  • ①梯度消失/梯度爆炸:阻碍收敛(现可以通过初始化权重解决)
  • ②网络退化:不是任何网络都能被相同的优化

不拟合底层,拟合残差(如果恒等映射足够好,可以把所有权重都学成0)

本文中shortcut connection只用来进行恒等映射

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值