56 门控循环单元(GRU)【动手学深度学习v2】

56 门控循环单元(GRU)【动手学深度学习v2】

深度学习学习笔记
学习视频:https://www.bilibili.com/video/BV1mf4y157N2/?spm_id_from=autoNext&vd_source=75dce036dc8244310435eaf03de4e330

门控循环单元GRU
GRU和LSTM 实际上效果差不多。

做RNN处理不了太长序列,因为信息都在隐藏状态中,如果序列太长隐藏状态就累计太多东西,对前面的信息就不太好抽取信息。

序列中每个观察值都不是同等重要,实际句子中也就是关键字和关键句比较重要。门控神经网络,通过一些门控单元,去选择一些比较重要的关注的地方。
有两种门,更新门:这个数据比较重要,尽量的放到隐藏层里面;重置门:不太重要的部分,可以忘记掉。
**在这里插入图片描述
门:**一个层,σ(sigmoid将值变为0-1之间)
Rt和Zt两个门。
Ht-1 、Xt 并在一起,进入一个全连接成,然后得到输出。
在这里插入图片描述

**候选隐状态:**使用tanh作为激活函数。 【圈】按元素乘法的意思。Rt是一个0-1的值,Rt靠近0的话,变向0,就是将上一个隐藏层的信息全忘掉。Rt=0的话,从0初始化开始;Rt=1,上一层隐藏层信息全要。所以Rt 是一个控制单元,控制上一层的信息给到下一层信息。
在这里插入图片描述

隐状态: 真正的隐状态,Zt按元素点乘Ht-1(上一层的隐藏层状态),加上(1-Zt)点乘候选隐藏层状态。
在这里插入图片描述
可学习权重是之前RNN的2-3倍。
两个门是控制单元,重置门用来控制新隐藏状态要用到多少过去隐藏状态的信息;更新门新的隐藏状态要用到当前新的隐藏信息多少。因为它们的值都是在0-1区间。

在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是基于鲸鱼算法优化门控循环单元GRU神经网络的MATLAB代码示例: ```matlab %% 数据准备 load('data.mat'); % 加载数据 X = X_train; % 输入数据 X Y = Y_train; % 输出数据 Y inputSize = size(X, 2); % 输入数据维度 outputSize = size(Y, 2); % 输出数据维度 hiddenSize = 10; % 隐藏层维度 maxEpochs = 100; % 最大迭代次数 batchSize = 10; % 每个批次的数据量 %% 初始化神经网络参数 params.Wr = randn(hiddenSize, inputSize); params.Ur = randn(hiddenSize, hiddenSize); params.br = zeros(hiddenSize, 1); params.Wz = randn(hiddenSize, inputSize); params.Uz = randn(hiddenSize, hiddenSize); params.bz = zeros(hiddenSize, 1); params.W = randn(hiddenSize, inputSize); params.U = randn(hiddenSize, hiddenSize); params.b = zeros(hiddenSize, 1); params.Wy = randn(outputSize, hiddenSize); params.by = zeros(outputSize, 1); %% 训练神经网络 for epoch = 1:maxEpochs % 随机排列数据 idx = randperm(size(X, 1)); X = X(idx, :); Y = Y(idx, :); % 分批次训练 for batch = 1:batchSize:size(X, 1) % 获取批次数据 X_batch = X(batch:min(batch+batchSize-1, end), :); Y_batch = Y(batch:min(batch+batchSize-1, end), :); % 前向传播 [h, z, r, y] = gru_forward(X_batch, params); % 计算损失 loss = cross_entropy(y, Y_batch); % 反向传播 [grads, dh_next] = gru_backward(X_batch, Y_batch, h, z, r, params); % 更新参数 params = whale_optimize(params, grads); end end %% 预测神经网络输出 X_test = X_test; % 输入数据 X_test [Y_pred, ~] = gru_forward(X_test, params); % 神经网络输出 Y_pred ``` 其中,`gru_forward` 和 `gru_backward` 分别为门控循环单元GRU神经网络的前向传播和反向传播函数,`whale_optimize` 为基于鲸鱼算法的神经网络参数优化函数,具体实现可以参考相关文献或者自行编写。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值