终于搞懂lSTM的原理了

LSTM简介

一个目前很火的特殊的RNN结构, 有效解决了RNN的梯度爆炸和长序列记忆问题

优势

LSTM 通过引入遗忘门、输入门、输出门, 来实现对特殊特征的记忆和遗忘,来达到更好的对序列数据的处理和记忆效果。

原理图:
在这里插入图片描述

总结公式:
在这里插入图片描述
大概就是这样的一个公式

简单来说就是,LSTM一共有三个门,输入门,遗忘门,输出门,
分别为三个门的程度参数,
g 是对输入的常规RNN操作。
公式里可以看到LSTM的输出有两个,细胞状态C’
和隐状态 h’
c’是经输入、遗忘门的产物,也就是当前cell本身的内容,经过输出门得到h’,就是想输出什么内容给下一单元
那么实际应用时,我们并不关心细胞本身的状态,而是要拿到它呈现出的状态
h’作为最终输出.

实现

利用pytorch 手动实现lstm

构建公式

class myLstm(nn
  • 6
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

东哥爱编程

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值