LSTM及其变体学习记录

1 篇文章 0 订阅

        在自然语言处理中会有这样一种情况:句子的前后之间有着某种关联。而有着这种关联的句子如果在适当的模型中进行训练就能够实现预测下一个词出现的可能性。但典型的CNN网络并不能通过训练获取这种前后关联的时序关系,它不能保持之前所习得的知识。而RNN就解决了这个问题,RNN(Recurrent Neural Network)时包含循环的网络,它允许了信息的持久化。

        上图为一个RNN结构,可以看出,RNN可以视作时同一种神经网络的多次复制,且每一个神经网络模块都会将当前消息传递给下一个网络。


什么是LSTM?

        LSTM,全称是Long Short-Term Memory,属于RNN的一种。由于其结构特点,使得LSTM非常适合用于时序数据的建模。
        从自然语言处理的角度,典型的神经网络往往采用加和的方法对句子进行判断情感极性,比如"I do not love him."其中在"not"上被判作负值,"love"会被判作正值,但句子的情感极性是明显偏贬义的,而直接加和往往会失掉前后关联,比如“do not”是对于“love”的否定。但LSTM模型能够更好的捕获较长距离的依赖关系,因为LSTM可以通过训练过程学到记忆或是遗忘某些信息。


LSTM的框架:

        LSTM模型是由t时刻的输入X_t、细胞状态C_t、临时细胞状态\widetilde{C_t}、隐层状态h_t、遗忘门f_t、记忆门i_t、输出门o_t组成。LSTM通过细胞状态中信息遗忘和记忆新的信息使得对后续时刻计算有用的信息得以传递,其无用的信息被丢弃。在每个单元都输出一个隐层状态h_t,其中遗忘f_t、记忆i_t和输出o_t由上个时刻的隐层状态和当前输出计算出的遗忘门f_{t-1}、记忆门i_{t-1}和输出门o_{t-1}来控制。


LSTM的计算过程:

1、遗忘门:选择需要遗忘的信息

输入为前一单元的隐层状态h_{t-1}和当前时刻的单元X_t,通过\sigma函数计算得到遗忘门f_t的值

2、记忆门:选择需要记忆的信息
输入为前一单元的隐层状态h_{t-1}和当前单元的输入X_t,通过\sigma函数输出记忆门i_t和临时细胞状态\widetilde{C_t}的值

3、计算当前时刻细胞状态


输入为记忆门i_t、遗忘门f_t和临时细胞状态\widetilde{C_t}、上一单元细胞状态C_{t-1},通过式C_t = f_t*C_{t-1}+i_t*\widetilde{C_t}计算得到当前单元细胞状态C_t的值

4、输出门和当前单元隐层状态


输入为前一单元隐层状态h_{t-1}、当前单元输入X_t,通过σ函数计算得到输出门的值;再由输出门o_t和当前单元细胞状态C_t通过式h_t=o_t*tanh(C_t)计算得到当前单元隐层状态

最终我们可以得到与输入长度相同的隐层状态序列。


        但是,尽管LSTM对于语义的前后联系已经有着一定的作用,但很明显其输入和训练都是基于时序的。也就是说,它并不能编码从后到前的信息,即如果我们对某个词的形容出现在后半部分,那么LSTM并不能够准确地判断该句子。所以BiLSTM(Bi-directional Long Short-Term Memory)也就应运而生了,它是由前向LSTM和后向LSTM组合而成,能够更好地捕捉到双向的语义依赖。


BiLSTM

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值