算法面试之LSTM和GRU

本文深入探讨了LSTM和GRU两种循环神经网络,详细解析了LSTM的遗忘门、输入门、输出门以及GRU的更新门和重置门。LSTM通过门控机制有效地保留长期记忆,而GRU则通过简化结构实现了类似的效果。尽管GRU参数更少,训练更快,但在数据充足的情况下,LSTM可能表现出更强的表达能力。
摘要由CSDN通过智能技术生成

LSTM 长短期记亿

在这里插入图片描述

·LSTM用两个门来控制单元状态c的内容
一个是遗忘门(forget gate),决定了上一时刻的记忆单元ct-1有多少保留到记忆单元ct;
一个是输入门(input gate),决定了当前时刻网络的输入xt有多少保存到记忆单元ct 。

·LSTM用输出门(output gate)来控制记忆单元ct有多少输出到LSTM的当前输出值ht

由于遗忘门的控制,它可以保存很久很久之前的信息
由于输入门的控制,它又可以避免当前无关紧要的内容进入记忆
输出门控制了长期记忆对当前输出的影响,由输出门和单元状态共同确定

i = (x h-1 b)
o = (x h-1 b)
f = (x h-1 b)
c~ = (x h-1)
c = fc-1 + ic~
h = o * c

LSTM的激活函数

在LSTM中,遗忘门、输入门和输出门使用Sigmoid函数作为激活函数‘
在生成候选记忆时,使用双曲正切函数Tanh作为激活函数
值得注意的是,这两个激活函数都是饱和的,也就是说在输入达到一定值的情况下,输出就不会发生明显变化了。如果是用非饱和的激活函数,例如ReLU,那么将难以实现门控的效果。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

CxFt

很高兴可以帮到你

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值