残差块解决的问题

一定层度上,网络越深表达能力越强,性能就越好

但是在加深深度网络的时候可能会出现,这个网络他训练来训练去,他的性能一直是那样不变,他的性能波动的非常的大。

解释一下下面几个的概念:

梯度消失:就是说我们每一层的梯度他都小于0,很多层的梯度相乘的时候,最高层的那些梯度就会变得非常非常的低,就相当于最高层的梯度已经不更新了, 这样当然就学不到一个好的模型。

梯度爆炸:这个梯度值非常大,很多层的梯度进行相乘的时候,梯度就会变得越来越大,更新的就会非常剧烈,这个时候就会有梯度爆炸的问题。

但是这两个原因并不是深度网络变现差的根本原因 ,他的根本原因是因为他的学习的权重矩阵发生了退化:

                每个层中只有少量的隐藏单元对不同的输入改变他们的激活值,而大部分隐藏单元对不同的输入都是相同的反应,此时整个权重矩阵的秩不高,并且随着网络层数的增加,连乘后使得整个 秩变得更低了。

为了缓解这种权重变化,加入残差的连接

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值