GRU网络

本文介绍了GRU网络的基本结构,对比了GRU与LSTM的区别,并通过重置门、更新门的概念来帮助理解GRU如何筛选和保留信息,以此缓解梯度消失问题。此外,还提供了相关的学习例证。
摘要由CSDN通过智能技术生成

GRU

补充博客指路:
https://blog.csdn.net/qq_38147421/article/details/107694477?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522165547103016780357296333%2522%252C%2522scm%2522%253A%252220140713.130102334…%2522%257D&request_id=165547103016780357296333&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2alltop_positive~default-1-107694477-null-null.142v17pc_search_result_control_group,157v15new_3&utm_term=GRU&spm=1018.2226.3001.4187

1.结构

在这里插入图片描述
在这里插入图片描述

2.对比LSTM

见上一个LSTM的博客

3.举例理解

(1)rt(重置门):筛选出有用的内容

在这里插入图片描述

(2)~ht:通过学习产生的新知识(新笔记)

rt*ht-1:提取出关于机器学习相关的知识点
tanh( ):学习过程,即产生一个新的笔记~ht(其中出版社,矩阵分解都是冗余项)
在这里插入图片描述

(3)Zt(更新门):筛选出没有用的内容,保留有用的内容

在这里插入图片描述

(4)ht:最终记忆的内容

在这里插入图片描述

4.LSTM区别

在这里插入图片描述

5.缓解梯度消失

与LSTM同样原理
在这里插入图片描述

6.练习

"""
gru模型定义:第一维表示input特征数,第二维表示隐层特征数,也是输出特征数,第三维表示gru单元个数
要求input维度是3维,第一维表示样本数,第二维表示batch数,第三维表示input特征数;
h维度,第一维同gru单元个数,第二维表示batch数,第三维表示隐层特征数
"""

import torch
import torch.nn as nn
import sklearn.preprocessing as sp

num_class = 
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值