RNN全网最强大厂面试级深度的知识点整理

RNN介绍

熟烂了,不多BB,直接上干活

前向反向传播

前向(重点)

在这里插入图片描述
损失函数定义如下:
L t = g ( y ′ , y ) L_t = g(y',y) Lt=g(y,y) # 这里不需要指出具体的损失函数形式,可能是交叉熵,也可能是别的。
在这里插入图片描述

反向

在这里插入图片描述

W h W_h Wh W x W_x Wx求导

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
这样我们把公式(6)中的第三项就展开成了(10)
在这里插入图片描述
(10)带入(6)即可得到:
在这里插入图片描述
最后进行梯度更新。

RNN梯度消失分析(重点)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
clip是梯度裁剪,pytorch也有专门的功能函数。具体梯度爆炸/消失问题如何解决,之前写论文的时候也有遇到过相关问题,过段时间总结一下解决方案。

补充问题:为什么RNN训练的时候Loss波动很大?

由于RNN特有的memory的特点,梯度更新时,一荣俱荣 一损俱损,所以梯度时大时小,lr也难以个性化进行调整,即Loss会波动。为了解决这个问题,可以设置clip,当梯度大于某个临界值,直接截断。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Xu_Wave

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值