神经网络梯度、反向传播相关问题

1、梯度消失、爆炸的原因

由于反向传播机制,若损失函数梯度小于1,就会发生梯度消失;反之则会发生梯度爆炸;

两种情况下梯度消失经常出现,一是在深层网络中,二是采用了不合适的损失函数,比如sigmoid。梯度爆炸一般出现在深层网络和权值初始化值太大的情况下。

2、梯度消失、爆炸的解决方案

(1)预训练+微调

(2)梯度剪切、正则

(3)relu、leaky-relu、elu等激活函数

(4)batchNorm:把每层神经网络任意神经元的输入值的分布强行拉回到接近均值为0方差为1的标准正太分布,这样使得激活输入值落在非线性函数对输入比较敏感的区域

(5)残差结构:

 (6)LSTM:通过内部的门可以记住前几次训练的残留记忆

3、RNN容易发生梯度消失,因为激活函数为tanh,导数小于1,且在平时运用时,RNN比较深,使得梯度消失或梯度爆炸的问题会比较明显。

4、神经网络的反向传播

对于BPNN模型&#

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值