残差结构-ResNet(让网络可以更深)

随着网络深度加深,人们认识到在CNN中,网络深度(depth) 是至关重要的。但是人们又发现随意的增加网络深度会导致退化问题(degradation problem)。随后学者们(何凯明团队)提出了一个Residual框架,使可以训练非常深的网络。

ResNet

论文地址:ResNet论文地址

1、退化问题

当增加网络深度时,网络在训练集与测试集上的表现都不如原本较浅的网络。从下图也可以明显的看到这种现象,这被称作退化问题(degradation problem)。
在这里插入图片描述
学者们认为,当在一个较浅的网络上增加网络层数,即使无法让网络表现变得更好,但也应该与较浅的网络保持相当的结果。但是从实验结果来看,并不是这样,这说明后面增加的网络无法较好的拟合一个恒等变换。

2、Residual Learning

假设网络后面的几层拟合了一个隐式函数H(x),记F(x) = H(x) - x。那么有H(x) = F(x) + x,有前面讨论知道H(x)是比较难是一个恒等变换的,假设H(x)是恒等映射时网络是最优的(虽然实际中不太可能),若用原来的结构是无法达到的,但是通过这个残差训练可以教容易的去逼近,因为可以直接令F(x)趋近于零,即让F(x)中训练的参数趋近于零。下面这张图指的是一个小的残差模块。
残差结构

3、利用bottleneck architecture构建更深的网络

通过使用1×1的卷积(pointwise convolution)进行降维和升维操作,即减少了计算量,又维持了通道数的数量,使模型有较好的表示能力。
在这里插入图片描述

4、ResNet-50、ResNet-152模型表现(ImageNet上)

在测试集上的表现
在这里插入图片描述
在验证集上的表现
在这里插入图片描述

5、总结

总的来说就是提出了一个残差框架,通过构建残差块,并进行堆叠构建残差网络,使网络可以训练的很深;另外在相同网络层数的前提下,添加了残差结构的网络的准确率不会有太大的提升,但是训练速度会变快。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值