Deep Residual Learning For Image Recognition

深度残差学习框架旨在解决深度神经网络中的退化问题,随着网络层数增加,准确率先饱和后下降。ResNet通过残差模块(Residual Block)实现了性能提升,即使在网络深度增加时也能保持高精度。该模块通过在原始网络输出上加上输入,实现了恒等映射,允许网络更有效地学习。网络结构基于VGGNet,插入了shortcut connections以匹配不同维度,确保端到端训练。
摘要由CSDN通过智能技术生成

论文地址:  resnet 论文原文地址

文献翻译地址:https://blog.csdn.net/Quincuntial/article/details/77263562?locationNum=6

网络深度为何重要?

因为CNN能够提取low/mid/high-level的特征,网络的层数越多,意味着能够提取到不同level的特征越丰富。 并且,越深的网络提取的特征越抽象,越具有语义信息 。

众所周知网络深度约深模型的拟合程度越好,但是深层的网络意味着更多的参数,更大的计算量,对计算机硬件的要求更好,为了解决随着简单增加深度出现的梯度弥散梯度爆炸,解决办法就是正则化初始化和中间的正则化层,可训练几十层的网络。但是研究发现随着网络深度的增加准确率会趋于饱和,并且快速下降,这就是退化问题,Resnet主要解决的问题是神经网络产生的退化问题。

退化

        随着网络深度(网络的层数)的增加,开始网络的准确率是增加状态,当到达一定的层数以后,当网络开始收敛时准确率先缓慢饱和然后下降,这个下降过程就是退化,它并不是由于overfitting 引起的。

  • 1
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值