概念
It(输入门):决定是不是忽略输入数据
Ft(忘记门):决定是否忘记以前的状态
Ot(输出门):决定是否使用当前计算出来的隐状态
候选记忆单元:相当于获得当前输入
记忆单元(相当于个“日记本”):这里可通过It来决定是否忽略当前输入数据
计算公式:
与GRU相比,LSTM网络结构把对过去数据的遗忘程度和对当下输入数据的遗忘程度拆分成两个独立的变量,通过Ft来控制对过去数据的遗忘程度,通过It来控制对当下输入数据的遗忘程度,使得网络更加灵活
Pytorch简介实现
参考资料: