反向传播算法(过程及公式推导)_反向传播(Back propagation)算法笔记

这篇博客详细介绍了反向传播算法,包括算法概述、推导过程和具体实例。算法概述部分阐述了BP算法的基本构成,强调了激励传播和权重更新在循环迭代中的作用。在推导过程中,详细讲解了神经元结构、误差函数以及如何计算误差对权重的偏导数。通过一个三层神经网络的例子,展示了前向传播、反向传播和权重更新的步骤。
摘要由CSDN通过智能技术生成

在这里回顾一下上学期学的方向传播算法。下面是一些读书笔记。毕竟好记性不如烂笔头!!

Wiki: 反向传播(Back propagation 或者BP),是“误差反向传播”的简称,它是一种用来训练人工神经网络的常见方法,一般与梯度下降结合使用。该方法对网络中所有权重计算损失函数的梯度。这个梯度会反馈给最优化方法,用来更新权值以最小化损失函数。

它通常被认为是一种监督学习方法,因为反向传播需要根据输入值期望得到的已知输出,来计算损失函数的梯度,进而更新权值。但是它也可以应用在无监督网络中。它可以使用链式法则对网络的每层迭代计算梯度,因此,每个节点(神经元)的激励函数必须是可微。

1. 算法概述

BP算法主要是由激励传播、权重更新 循环迭代构成,直到网络的输出满足一定条件才停止。

激励传播

  1. 前向传播阶段: 将输入数据送入网络以获得激励响应,即计算每层的预估值;
  2. 反向传播阶段: 将激励响应同对应的目标输出求差,获得隐层与输出层的响应误差。

权重更新

  1. 将输入激励和响应误差相乘,获得权重的梯度;
  2. 将这个梯度乘上一个学习率,并取反后加到权重上。

因为梯度是指向误差扩大的方向,而我们是想要往权重减小的方向,所以更新权重的时候需要对其取反。

2. 推导过程

2.1 神经元结构

52db3fc9ffd19e4768cac2ab373245b3.png
神经元结构

首先,看下神经元的结构,每个神经元由两个部分组成:

  1. 权重与输入
  2. 激活函数,非线性函数
    ,j 表示第j个神经元,即对应上图的

每个神经元的输出则为

表示神经元i 跟j之间的权值,这里神经元i是j的上一层,
则是上一层神经元的输出
<
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值