LSTM原理详解(pytorch 附带BiLSTM)

本文深入探讨LSTM的工作原理,包括Forget、Input和Output门的计算,以及BiLSTM的扩展。通过PyTorch的torch.nn.LSTM源码解析,了解LSTM网络的参数含义和输入输出结构。适合于理解LSTM在处理序列数据,尤其是文本数据时的角色。
摘要由CSDN通过智能技术生成

本文是自己在项目中用到的部分学习了之后的一些理解和整理,希望对你学习过程中有所帮助,有啥问题欢迎评论一起讨论。

目录

1、LSTM原理

2、BiLSTM原理

3、pytorch torch.nn.LSTM 源码理解

参考资料


1、LSTM原理

LSTM网络(Long short-term memory,长短期记忆网络)是一种特殊的RNN,能够学习长期依赖关系,它们是由Hochreiter&Schmidhuber(1997)[4]提出的,并在随后的工作中被许多人改进和推广。

LSTM由于其设计的特点,非常适合用于对时序数据的建模,如文本数据。

总的来说就是它的结构如下图所示,一个格格代表一个LSTM单元

主要由三个门构成:  forget gate,input gate,output gate具体的计算公式如下:

Forget gate:

这个阶段主要是对上一个节点传进来的输入进行选择性忘记。简单来说就是会 “忘记不重要的,记住重要的”。

其中x_t为当前时刻的输入,h_{t-1}为上一时刻输出的隐状态向量,σ表示sigmoid方程,其他都是一些可训练参数

Input gate:

这个阶段将这个阶段的输入有选择性地进行“记忆”

其中c_t为细胞状态向量

Output gate:

这个阶段将决定哪些将会被当成当前状态的输出。

 

比如一句话[你,好,啊,我,是,X,X,X]输入到LSTM

时刻1:你 == x_1 通过计算 得到 c_1,h_1

时刻2:好 ==

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值