目录
习题6-3 当使用公式(6.50)作为循环神经网络的状态更新公式时,分析其可能存在梯度爆炸的原因并给出解决方法
习题6-4 推导LSTM 网络中参数的梯度,并分析其避免梯度消失的效果
附加题6-1P:什么时候应该用GRU?什么时候用LSTM?(选做)
习题6-3 当使用公式(6.50)作为循环神经网络的状态更新公式时,分析其可能存在梯度爆炸的原因并给出解决方法
答: 令为在第k时刻函数
的输入,在计算公式
时,梯度可能会过大,从而导致梯度爆炸问题。可以通过引入门控机制来控制信息的累积速度,包括有选择性地加入新的信息,并有选择地遗忘之前累积的信息,以此解决梯度爆炸的问题。
习题6-4 推导LSTM 网络中参数的梯度,并分析其避免梯度消失的效果
LSTM的递归求导公式中包含加法,使得导数值可以在1上下跳动,且门的值可以通过学习来调整,如果长期依赖对结果有重要影响,网络会把遗忘门值设置得更大,从而缓解梯度消失问题
附加题6-1P:什么时候应该用GRU?什么时候用LSTM?(选做)
GRU 参数更少,效率更高,且容易收敛,但是在数据集很大的情况下,LSTM表达性能还是比GRU好。所以在数据集较大的时候用LSTM,在一般数据集采用效率更高的GRU
总结
本次作业推导了LSTM网络中参数的梯度,并且深度探索了LSTM与GRU,对这两个网络有了更深的理解
参考