Resnet解决了什么问题

先贴出论文的链接吧:If resnets are the answer, then what is the question?
从现在的网络发展趋势来看,网络越深,精度会越高,但是传统的堆叠网络却无法不断加深网络层数,原因是梯度消失和梯度爆炸。自从Resnet提出以后,网络越深,精度就越好,这是为什么。

我一直以为是由于Resnet 的 skip-connections解决了梯度消失的问题,在用反向传播算法时,梯度进行更新,层数越深,梯度就会越来越小,从而即使加深层数也无法正常训练下去。

现在才知道,batch normalization是可以解决梯度消失和梯度爆炸的问题,所以Resnet解决了什么问题呢?
论文中这样说道:
Specifically, we show that the correlation between gradients in standard feedforward networks decays exponentially with depth resulting in gradients that resemble white noise. In contrast, the gradients in architectures with skip connections are far more resistant to shattering decaying sublinearly
.
This raises the question: If resnets are the solution, then what is the problem? We identify the shattered gradient problem: a previously unnoticed difficulty with gradients in deep rectifier networks that is orthogonal to vanishing and exploding gradients. The shattering gradients problem is that, as depth increases, gradients in standard feedforward networks increasingly resemble white noise. Resnets dramatically reduce the tendency of gradients to shatter

大致意思就是说图像是具有局部相关性的,因此认为梯度也应该具备相关性,但是在梯度更新期间,梯度的相关性会随着层数的变深呈指数性衰减,导致梯度趋近于白噪声,而skip-connections 可以减缓衰减速度,使相关性和之前比起来变大。

论文中还提出“looks linear” (LL) initialization 来阻止shattering,即使没有
skip-connections。

我觉得论文可以读一下,可以提升对Resnet的理解,因为Resnet是一个很有创新性的网络。
如有错误,欢迎指出。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值