反向传播算法详解

1、什么是反向传播算法
反向传播算法(Backpropagation)是目前用来训练人工神经网络(Artificial Neural Network,ANN)的最常用且最有效的算法。其主要思想是:
(1)将训练集数据输入到ANN的输入层,经过隐藏层,最后达到输出层并输出结果,这是ANN的前向传播过程;
(2)由于ANN的输出结果与实际结果有误差,则计算估计值与实际值之间的误差,并将该误差从输出层向隐藏层反向传播,直至传播到输入层;
(3)在反向传播的过程中,根据误差调整各种参数的值;不断迭代上述过程,直至收敛。
2、变量定义
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
5、举例说明(梯度下降,非随机梯度下降)
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述

  • 0
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
全连接神经网络反向传播算法是一种用于训练神经网络的算法。它是一种基于梯度下降的优化算法,通过计算代价函数的梯度来更新神经网络的权重和偏置。 下面是全连接神经网络反向传播算法的详细步骤: 1. 前向传播:将输入数据送入神经网络进行前向传播,得到输出结果。 2. 计算代价函数:计算输出结果与实际结果之间的代价函数,通常使用平方误差函数。 3. 反向传播:计算代价函数对权重和偏置的梯度,通过链式法则计算每一层的梯度值。 4. 更新权重和偏置:根据梯度下降算法的原理,更新每一层的权重和偏置。 下面是一个全连接神经网络反向传播算法的实例: 假设我们有一个三层的全连接神经网络,输入层有 2 个神经元,隐藏层有 3 个神经元,输出层有 1 个神经元。我们使用 sigmoid 函数作为激活函数,使用平方误差函数作为代价函数。 1. 前向传播:假设输入数据为 [0.5, 0.8],将其输入到神经网络中进行前向传播,得到输出结果为 0.6。 2. 计算代价函数:假设实际结果为 0.4,计算平方误差代价函数为 (0.6 - 0.4)^2 = 0.04。 3. 反向传播:计算代价函数对权重和偏置的梯度。首先计算输出层的梯度,根据链式法则,代价函数对输出层的输出值的梯度为 2 * (0.6 - 0.4) = 0.4,输出层的梯度为 0.4 * sigmoid'(0.6) = 0.14。然后计算隐藏层的梯度,隐藏层的梯度等于输出层梯度乘以输出层与隐藏层之间的权重矩阵的转置乘以隐藏层的输出值的导数,即 0.14 * W2.T * sigmoid'(0.5, 0.2) = [0.041, 0.035, 0.046]。最后计算输入层的梯度,输入层的梯度等于隐藏层梯度乘以隐藏层与输入层之间的权重矩阵的转置乘以输入层的输出值的导数,即 [0.041, 0.035, 0.046] * W1.T * sigmoid'(0.5, 0.8) = [0.0042, 0.0054]。 4. 更新权重和偏置:根据梯度下降算法的原理,更新每一层的权重和偏置。假设学习率为 0.1,更新公式为: W = W - learning_rate * dW b = b - learning_rate * db 其中,W 表示权重矩阵,b 表示偏置向量,dW 表示权重的梯度,db 表示偏置的梯度。 对于输出层与隐藏层之间的权重矩阵,更新公式为: W2 = W2 - learning_rate * (a1.T * d2) b2 = b2 - learning_rate * d2 其中,a1 表示隐藏层的输出值,d2 表示输出层的梯度。 对于隐藏层与输入层之间的权重矩阵,更新公式为: W1 = W1 - learning_rate * (x.T * d1) b1 = b1 - learning_rate * d1 其中,x 表示输入数据,d1 表示隐藏层的梯度。 以上就是全连接神经网络反向传播算法详解以及实例。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值