深度学习--递归神经网络RNN和LSTM

本文介绍了递归神经网络(RNN)在自然语言处理中的应用及其反向传播过程中的问题,如梯度消失。接着详细阐述了LSTM(长短记忆网络)如何通过门控机制解决这些问题,使得在长序列学习中能有效保留信息,因此LSTM在实际应用中更为广泛。
摘要由CSDN通过智能技术生成

RNN:递归神经网络

在这里插入图片描述

在这里插入图片描述
RNN在自然语言处理方面较好。
在这里插入图片描述
通常情况下只需要最后一个结果。

递归神经网络的反向传播:
在这里插入图片描述
只要有路线,就需要把梯度传导下去。

在这里插入图片描述

存在缺点:
1、当输入较大时,网络结构比较大,反向梯度传播计算会很慢。
2、当梯度计算为0时,参数就无法传递了,也就是会出现梯度消失。
3、较前的输入可能信息价值不高,可能对训练造成影响,需要预处理

LSTM 长短记忆网络

LSTM会去遗忘一些数据

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值