【GRU网络结构解析】【BPTT训练公式】【前/反向传播方向】

一、【GRU网络结构解析】

GRU 是 LSTM 网络的一种效果很好的变体,它较 LSTM 网络的结构更加简单,而且
效果也很好,因此也是当前非常流形的一种网络。GRU 既然是 LSTM 的变体,因
此也是可以解决 RNN 网络中的长依赖问题。在 LSTM 中引入了三个门函数:输入
门、遗忘门和输出门来控制输入值、记忆值和输出值。而在 GRU 模型中只有两个
门:分别是更新门和重置门。具体结构如下图所示:

二、【BPTT训练公式】

BPTT(Backpropagation Through Time,递归神经网络的反向传播算法)是一种用于训练循环神经网络(RNN)和其变体的反向传播算法。与传统的反向传播算法不同,BPTT考虑了时间上的序列依赖关系,因此适用于序列数据的训练。

BPTT的训练过程可以简单地概括为将网络的输出与实际的目标值进行比较,然后通过网络的反向传播算法调整网络参数,使得网络的预测结果更接近目标值。

以下是BPTT的主要步骤及相应的公式解释:

  1. 前向传播:首先,通过网络的前向传播算法,将输入序列数据输入到网络中,计算网络的输出值。

  2. 损失函数计算:利用损失函数来度量网络的输出与实际目标值之间的差异。常用的损失函数包括均方误差(Mean Squared Error,MSE)、交叉熵(Cross Entropy)等。

  3. 反向传播:然后,通过反向传播算法计算损失函数对网络参数的梯度,以便进行参数更新。BPTT将误差从输出层向输入层进行反向传播,以便调整所有时间步上的权重。

  4. 参数更新:利用计算得到的梯度信息,使用梯度下降或其变种的优化算法,例如随机梯度下降(SGD)、Adam等,来更新网络中的参数。

下面是BPTT的具体公式解释:

  • 损失函数的梯度计算:根据损失函数的具体形式,可以使用链式法则计算损失函数对网络输出的梯度。然后,根据网络结构和参数的链式法则,计算损失函数对每个参数的梯度。

  • 参数更新:利用梯度下降算法或其变种,通过更新参数来最小化损失函数。通常的更新规则为: 

  • wAAACH5BAEKAAAALAAAAAABAAEAAAICRAEAOw==编辑

总之,BPTT通过计算损失函数对网络参数的梯度,然后利用梯度下降等优化算法来更新参数,从而使得网络的预测结果更接近实际目标值。这样的迭代过程将持续进行,直到网络收敛或达到停止条件。

三、【前/反向传播方向】

前向传播和反向传播是深度学习中用于训练神经网络的两个基本过程,它们描述了信息在神经网络中的传播方向。

  1. 前向传播(Forward Propagation): 在前向传播过程中,输入数据从网络的输入层开始,通过网络的每一层逐步传递,直到达到输出层,最终产生网络的预测结果。在这个过程中,每一层都执行一些线性和非线性的变换,将输入数据转换成适合输出的形式。前向传播的目的是将输入数据通过网络,获取最终的预测结果。

  2. 反向传播(Backward Propagation): 在反向传播过程中,首先根据网络的输出结果和真实的标签计算损失函数,然后从输出层开始,逆向传播损失,计算每一层的梯度。这些梯度指示了每个参数对损失函数的影响程度。反向传播的目的是根据损失函数的梯度,更新网络中的参数,使得网络的输出结果更接近真实标签。

总之,前向传播是指从输入层到输出层的数据传递过程,用于获取网络的预测结果;而反向传播是指从输出层到输入层的梯度传递过程,用于根据损失函数的梯度更新网络的参数。前向传播和反向传播是深度学习中训练神经网络的两个基本过程,它们共同作用于网络的训练和优化过程。

  • 30
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值