RNN,GRU和LSTM模型比较

本文探讨了标准RNN在处理长序列信息时的局限性,并介绍了GRU和LSTM模型如何通过门控机制解决这一问题。GRU具有更新门和相关性门,而LSTM则包含遗忘门、更新门和输出门,两者都在长序列学习中展现优秀记忆能力。
摘要由CSDN通过智能技术生成

文中图片来源:吴恩达老师的深度学习视频
视频链接:https://www.bilibili.com/video/av49445369?p=152

对于标准的RNN来说,它是利用前一时刻的隐藏单元该时刻的输入一起学习,但是当小序列的相关信息相隔较长时,普通RNN常常不能学习的很好。举个例子(1)如果我们要预测“the clouds are in the sky”的最后一个单词,因为只在这一个句子的语境中进行预测,那么将很容易地预测出是这个单词是sky。在这样的场景中,相关的信息和预测的词位置之间的间隔是非常小的,RNN 可以学会使用先前的信息。(2) 而在比较长的环境中,例如在“I grew up in France… I speak fluent French”中去预测最后的French,那么模型会推荐一种语言的名字,但是预测具体是哪一种语言时就需要用到很远以前的France,这就说明在长环境中相关的信息和预测的词之间的间隔可以是非常长的。在理论上,RNN 绝对可以处理这样的长环境问题。人们可以仔细挑选参数来解决这类问题中的最初级形式,但在实践中,RNN 并不能够成功学习到这些知识。然而,LSTM和GRU模型就可以解决这一问题。

标准RNN结构:

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值