门控循环单元(GRU)

困死了。。。
参考视频:56 门控循环单元(GRU)【动手学深度学习v2】
GRU:门控循环单元,与LSTM类似,解决RNN中不能长期记忆和反向传播中的梯度等问题。但结构比LSTM简单。
关注一个序列,不是每个观察值都是同等重要,想只记住相关的观察需要:
能关注的机制(更新门)
能遗忘的机制(遗忘门)

更新门与遗忘门

在这里插入图片描述
更新门帮助模型决定到底要将多少上一层的信息传递到现在,即前一时间步和当前时间步的信息有多少是需要继续传递的
上述公式中,更新门的操作为:
xt(当前时间步所输入向量)经过一个线性变换后与上一时间步保存的信息ht-1也经过一个线性变换后相加后再加一个常量后进入 Sigmoid 激活函数,输出的值为0-1之间。

重置门主要决定了到底有多少过去的信息需要遗忘。
上述公式中,遗忘门的操作:
与更新门类似,ht-1与xt各自进行了一个线性变换后 加上一个常量后进入Sigmoid 激活函数。

候选隐状态

在这里插入图片描述
简单来说,就是当前信息和对过去信息的筛选。
其中Rt与Ht-1的对应元素乘积:重置门的输出值均为0-1,代表了该信息的的相关程度,例如某个元素对应的门控值为 0,那么它就代表这个元素的信息完全被遗忘掉。

隐状态

在这里插入图片描述
最终记忆的计算过程中,需要使用更新门,它决定了当前记忆内容 ht和前一时间步 ht 中需要收集的信息。
Zt为更新门的激活结果,它同样以门控的形式控制了信息的流入。Zt与 ht 的对应元素乘积表示前一时间步保留到最终记忆的信息,该信息加上当前记忆保留至最终记忆的信息就等于最终门控循环单元输出的内容。

以下是基于鲸鱼算法优化门控循环单元GRU神经网络的MATLAB代码示例: ```matlab %% 数据准备 load('data.mat'); % 加载数据 X = X_train; % 输入数据 X Y = Y_train; % 输出数据 Y inputSize = size(X, 2); % 输入数据维度 outputSize = size(Y, 2); % 输出数据维度 hiddenSize = 10; % 隐藏层维度 maxEpochs = 100; % 最大迭代次数 batchSize = 10; % 每个批次的数据量 %% 初始化神经网络参数 params.Wr = randn(hiddenSize, inputSize); params.Ur = randn(hiddenSize, hiddenSize); params.br = zeros(hiddenSize, 1); params.Wz = randn(hiddenSize, inputSize); params.Uz = randn(hiddenSize, hiddenSize); params.bz = zeros(hiddenSize, 1); params.W = randn(hiddenSize, inputSize); params.U = randn(hiddenSize, hiddenSize); params.b = zeros(hiddenSize, 1); params.Wy = randn(outputSize, hiddenSize); params.by = zeros(outputSize, 1); %% 训练神经网络 for epoch = 1:maxEpochs % 随机排列数据 idx = randperm(size(X, 1)); X = X(idx, :); Y = Y(idx, :); % 分批次训练 for batch = 1:batchSize:size(X, 1) % 获取批次数据 X_batch = X(batch:min(batch+batchSize-1, end), :); Y_batch = Y(batch:min(batch+batchSize-1, end), :); % 前向传播 [h, z, r, y] = gru_forward(X_batch, params); % 计算损失 loss = cross_entropy(y, Y_batch); % 反向传播 [grads, dh_next] = gru_backward(X_batch, Y_batch, h, z, r, params); % 更新参数 params = whale_optimize(params, grads); end end %% 预测神经网络输出 X_test = X_test; % 输入数据 X_test [Y_pred, ~] = gru_forward(X_test, params); % 神经网络输出 Y_pred ``` 其中,`gru_forward` 和 `gru_backward` 分别为门控循环单元GRU神经网络的前向传播和反向传播函数,`whale_optimize` 为基于鲸鱼算法的神经网络参数优化函数,具体实现可以参考相关文献或者自行编写。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值