深度学习——LSTM基础

本文介绍了RNN及其长期依赖问题,并详细解析了LSTM如何通过门控机制解决这一问题。LSTM拥有遗忘门、输入门和输出门,能选择性地保留历史记忆、学习新知识,从而有效地处理时序数据。
摘要由CSDN通过智能技术生成

文章目录

1. RNN

记住所有信息。
在这里插入图片描述
(1)定义与特性
RNN之所以在时序数据上有着优异的表现是因为RNN在t时间片时会将t-1时间片的隐节点作为当前时间片的输入。
在这里插入图片描述
在这里插入图片描述
(2)问题

  1. 长期依赖问题:随着数据时间片的增加,RNN丧失了学习连接如此远的信息的能力。
  2. 梯度消失:产生梯度消失和梯度爆炸是由于RNN的权值矩阵循环相乘导致的。

LSTM之所以能够解决RNN的长期依赖问题,是因为LSTM引入了门(gate)机制用于控制特征的流通和损失。

2. LSTM

(1)定义与特性
设置记忆细胞,选择性的记忆。
在这里插入图片描述

  • 三个门:遗忘门、输入门、输出门
  • 两个状态:C(t), h(t)

(2)前向传播
在这里插入图片描述
选择性的保留历史记忆,吸收新的知识

  1. 遗忘门 f t f_t ft
    f t = σ ( W x f x t + W h f h t − 1 + b f ) ; f_t=\sigma(W_{xf}x_t+W_{hf}h_{t-1}+b_f); ft=σ(Wxfxt+Whfht1+bf);
    ②理解: f t f_t ft通过sigmoid函数选择记忆(遗忘)历史信息 C t − 1 C_{t-1} Ct1

可以想象,脑容量是有限的。让输入新的信息时就需要选择性的遗忘一些作用不强的历史记忆。

  1. 输入门 i t i_t it
    i t = σ ( W x i x t + W h i h t − 1 + b i ) ; i_t=\sigma(W_{xi}x_t+W_{hi}h_{t-1}+b_i); it=σ(Wxixt+Whi
  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

冠long馨

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值