学习分享:RNN(持续更新)

本文详细介绍了RNN的基础,包括其为何适用于序列数据,如何通过共享参数实现泛化,以及RNN的问题如灾难性遗忘和梯度消失/爆炸。接着探讨了Bi-RNN和门控RNN,如LSTM和GRU,它们通过门机制解决了RNN的长期依赖问题,并解释了这些结构的工作原理。
摘要由CSDN通过智能技术生成

1 RNN基础

1.1 what RNN?

用于处理序列数据(可变长)的NN

1.2 why RNN?

在模型不同部分,共享参数
在几个时间步内,不需要分别学习权重
也能能泛化到不同长度的样本

为什么每个时间步用相同参数?
(1)减少参数数量
(2)实现可变长度
如果每步一个权重,不同长度的输入,权重的个数不一样,无法实现。
(3)泛化到新序列
如果每步一个权重,不能泛化到训练时没有见过的序列长度。

1.3 how RNN?

1.3.1 隐含到隐含

在这里插入图片描述
横向:时间轴
纵向:深度方向

1.3.2 输出到隐含

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值