通俗理解LSTM网络原理

LSTM

上节讲到的RNN循环神经网络有一个弊端,无法处理长距离依赖的问题,而RNN的变种长短时记忆网络(Long Short Term Memory Network, LSTM),可以解决这个问题。
原始RNN的隐藏层只有一个状态,即h,它对于短期的输入非常敏感。LSTM在此基础上又增加一个状态,即c,让它来保存长期的状态,称为单元状态(cell state)
在这里插入图片描述
新增加的状态c,称为单元状态。我们把上图按照时间维度展开:在这里插入图片描述
如图在 t 时刻,LSTM 的输入有三个:当前时刻网络的输入值 Xt、上一时刻 LSTM 的输出值 ht-1、以及上一时刻的单元状态 Ct-1;

LSTM 的输出有两个:当前时刻 LSTM 输出值 ht、和当前时刻的单元状态 Ct.

LSTM的关键,就是怎样控制长期状态c。在这里,LSTM的思路是使用三个控制开关。第一个开关,负责控制继续保存长期状态c;第二个开关,负责控制把即时状态输入到长期状态c;第三个开关,负责控制是否把长期状态c作为当前的LSTM的输出。三个开关的作用如下图所示:
在这里插入图片描述
第一个开关,负责控制继续保存长期状态c;
第二个开关,负责控制把即时状态输入到长期状态c;
第三个开关,负责控制是否把长期状态c作为当前的LSTM的输出。

LSTM的前向计算

       如何在算法中实现这三个开关?我们引入“门(gate)”的概念。门实际上就是一层全连接层,它的输入是一个向量,输出是一个0到1之间的实数向量。假设W是门的权重向量,b是偏置项,那么门可以表示为:
在这里插入图片描述
       门的输出是0到1之间的实数向量,用门向量的输出向量按元素乘以我们需要控制的那个向量,当门输出为0时,任何向量与之相乘都会得到0向量,这就相当于啥都不能通过;输出为1时,任何向量与之相乘都不会有任何改变,这就相当于啥都可以通过。因为σ(也就是sigmoid函数)的值域是(0,1),所以门的状态都是半开半闭的。

       LSTM用两个门来控制单元状态c的内容,一个是遗忘门,它决定了上一时刻的单元状态ct−1有多少保留到当前时刻ct;另外一个是输出门,他决定了当前时刻网络的输入xt有多少保存到单元状态ct。LSTM用输出门来控制单元状态ct有多少输出到LSTM的当前输出值ht。LSTM用输出门来控制单元状态ct有多少输出到LSTM的当前输出值ht。

遗忘门的表达式是:
在这里插入图片描述
       上式中,Wf是遗忘门的权重矩阵,ht−1,xt表示把两个向量连接成一个更长的向量,bf是遗忘门的偏置项,σ是sigmoid函数。如果输入的维度是dx,隐藏层的维度是dh,单元状态的维度是dc(d_c=d_h),则遗忘门的权重矩阵Wf维度是dcx(dh+dx)。事实上,权重矩阵Wf都是两个矩阵拼接而成的:一个是Wfh,它对应着输入项ht−1,其维度为dcxdh;一个是Wfx,它对应着输入项xt,其维度为dcxdx。Wf可以写为:
在这里插入图片描述
下图显示了遗忘门的计算:
在这里插入图片描述
接下来看看输入门:
在这里插入图片描述
上式中,Wi是输入门的权重矩阵, b i b_i bi是输入门的偏置项。下图表示了输入门的计算:
在这里插入图片描述
接下来,我们计算用于描述当前输入的单元状态c~t,它是根据上一次的输出和本次输入来计算的:
在这里插入图片描述
下图是c~t的计算:
在这里插入图片描述
现在,我们计算当前时刻的单元状态ct。它是由上一次的单元状态ct−1按元素乘以遗忘门ft,再用当前输入的单元状态c~t按元素乘以输入门it,再将两个积加和产生的:
在这里插入图片描述
符号O表示按元素乘。下图是ct的计算:
在这里插入图片描述
这样,我们就把LSTM关于当前的记忆c~t和长期的记忆ct−1组合在一起,形成了新的单元状态ct。由于遗忘门的控制,它可以保存很久很久之前的信息,由于输入门的控制,它又可以避免当前无关紧要的内容进入记忆。下面,我们要看看输出门,它控制了长期记忆对当前输出的影响:
在这里插入图片描述
下面表示输出门的计算:
在这里插入图片描述
LSTM最终的输出,是由输出门和单元状态共同确定的:
在这里插入图片描述
下图表示LSTM最终输出的计算:
在这里插入图片描述
这就是LSTM的前向计算,总共有式(1)到式(6)六个公式。

LSTM的训练

LSTM的训练算法仍然是反向传播算法,对于这个算法,我们已经非常熟悉了。主要有下面三个步骤:

1、前向计算每个神经元的输出值,对于LSTM来说,即ft、it、ct、ot、ht五个向量的值。计算方法已经在上一节中描述过了。

2、反向计算每个神经元的误差项δ值。与循环神经网络一样,LSTM误差项的反向传播也是包括两个方向:一个是沿时间的反向传播,即从当前t时刻开始,计算每个时刻的误差项;一个是将误差项向上一层传播。

3、根据相应的误差项,计算每个权重的梯度。

参考链接:
https://www.cnblogs.com/LXP-Never/p/10398531.html

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值