第3章 循环神经网络(RNN与LSTM)——3.6,3.7 梯度消失和梯度爆炸

一、解决方案

1.选择合适的激活函数

      不建议使用sigmoid和tanh函数,导数非常小,容易导致梯度消散。

2.选择合适的参数初始化方法

3.使用权重参数正则化

4.使用BatchNormalization

(1)通过规范化操作将输出信号x规范化到均值为0、方差为1,保证网络的稳定性

(2)可以加大神经网络训练的速度

(3)提高训练的稳定性

(4)缓解梯度爆炸和梯度消散的问题

5.使用残差结构

跨层连接,梯度绕圈传入。

(1)极大地提高了神经网络的深度

(2)很大程度上解决了梯度消散的问题

(3)允许我们可以训练很深层的神经网络

(4)残差结构可以看作解决梯度消散问题的最有效的、最重要的方法

6.使用梯度裁剪

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值