[学习日志]深度学习-李宏毅 RNN 第二讲

LSTM的训练过程

首先要保证训练集的顺序是有意义的(比如语义训练)
优化器也是用梯度下降,但是为了计算方便,发明了BP算法的进阶版本—BPTT
但是这里没有细讲,反正到时候都是直接调用的,大致和BP差不多
在这里插入图片描述


在这里插入图片描述
RNN的训练和一般网络不太一样,RNN的损失值对于参数的变化是非常陡峭的。
在这里插入图片描述
那么在训练时会有两种情况发生:踩在平原上 or 踩在悬崖上
踩在平原上,梯度很小,只能盲目Update,如果凑巧跨过悬崖的话Loss会剧烈变化
踩在悬崖上,梯度很大,很可能步子太大扯到蛋
那么要怎么解决这个问题呢?—Clipping 就是给梯度一个上限,防止它步子太大


为什么RNN会有这种特性呢?
在这里插入图片描述
上图中可以看到,由于循环的特性导致参数对输出的影响极大。
且在1左侧梯度小,在1右侧梯度大。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值