花书+吴恩达深度学习(十七)序列模型之长短期记忆 LSTM 和门控循环单元 GRU

本文介绍了为解决标准RNN长期依赖问题而提出的LSTM和GRU模型。LSTM通过更新门、遗忘门和输出门实现对长期信息的记忆。GRU则通过更新门控制更新和遗忘操作,简化了LSTM结构,允许更快的训练。
摘要由CSDN通过智能技术生成

目录

0. 前言

1. 长短期记忆 LSTM

2. 门控循环单元 GRU


如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔~我会非常开心的~

花书+吴恩达深度学习(十五)序列模型之循环神经网络 RNN

花书+吴恩达深度学习(十六)序列模型之双向循环网络 BRNN 和深度循环网络 Deep RNN

花书+吴恩达深度学习(十七)序列模型之长短期记忆 LSTM 和门控循环单元 GRU

0. 前言

标准的 RNN 每次的输出,都与附近的几次输入、隐藏单元激活函数值相关。

与很久之前的输入关联性较差,会遗忘较早的信息,缺乏长期依赖

本篇介绍为解决这个问题而修改的 RNN 模型。

  • 长短期记忆 LSTM(Long Short-Term Memory)
  • 门控循环单元 GRU(Gated Recurrent Unit)

1. 长短期记忆 LSTM

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值