标准BP算法和累计BP算法的区别

引用机器学习书上的解释:  

  累积 BP 算法与标准 BP 算法都很常用.一般来说,标准 BP 算法每次更新只针对单个样例?参数更新得非常频繁,而且对不同样例进行更新的效果可能出现"抵消"现象.因此,为了达到同样的累积误差极小点 标准 BP 算法往往需进行更多次数的法代.累积 BP 算法直接针对累积误差最小化,它在 卖取整个训练集 一遍后才对参数进行更新,其参数更新的频率低得多.但在很多任务中,累积误差下降到一定程度之后,进一步下降会非常缓慢,这时标准 BP 往往会更快获得较好的解,尤其是在训练非常大时更明显.

  标准 BP 算法和累积 BP算法的区别类似于随机梯度下降(stochastic gradient descent ,简称 SGD) 与标准梯度下降之间的区别.

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 8
    评论
标准BP算法累积BP算法都是神经网络中常用的反向传播算法。下面分别介绍它们的实现方法: 1. 标准BP算法实现: 标准BP算法的核心思想是使用梯度下降法来更新神经网络的权重和偏置。具体实现步骤如下: (1)初始化权重和偏置,一般采用随机初始化方式。 (2)对于每个样本,依次进行前向传播和反向传播,计算出每个权重和偏置的偏导数。 (3)根据偏导数和学习率,更新每个权重和偏置。 (4)重复步骤(2)和(3),直到达到预设的迭代次数或者误差达到一定的要求。 下面是标准BP算法的伪代码实现: ``` Input: 训练数据集D,学习率α,迭代次数T Output: 训练后的神经网络 // 初始化权重和偏置 for each weight w and bias b in network: w = random() b = random() // 进行T次迭代 for t = 1 to T: // 对于每个样本进行前向传播和反向传播 for each sample (x, y) in D: // 前向传播 h = x for each layer l in network: h = activation(l(w*h + b)) // 计算输出层的误差 δ = h - y // 反向传播 for each layer l in network, starting from the last layer: δ = δ * derivative(l(w*h + b)) dw = δ * h.T db = δ w = w - α * dw b = b - α * db ``` 2. 累积BP算法实现: 累积BP算法标准BP算法的改进版,它在更新权重和偏置时,不是每个样本都更新一次,而是累积多个样本的误差,再进行一次更新。具体实现步骤如下: (1)初始化权重和偏置,一般采用随机初始化方式。 (2)对于每个样本,依次进行前向传播和反向传播,计算出每个权重和偏置的偏导数。 (3)累积多个样本的偏导数,直到达到一定的累积数目或者样本集已经遍历完毕。 (4)根据累积的偏导数和学习率,更新每个权重和偏置。 (5)重复步骤(2)到(4),直到达到预设的迭代次数或者误差达到一定的要求。 下面是累积BP算法的伪代码实现: ``` Input: 训练数据集D,学习率α,迭代次数T,累积数目S Output: 训练后的神经网络 // 初始化权重和偏置 for each weight w and bias b in network: w = random() b = random() // 进行T次迭代 for t = 1 to T: // 初始化累积偏导数 dw_sum = 0 db_sum = 0 s = 0 // 对于每个样本进行前向传播和反向传播 for each sample (x, y) in D: // 前向传播 h = x for each layer l in network: h = activation(l(w*h + b)) // 计算输出层的误差 δ = h - y // 反向传播 for each layer l in network, starting from the last layer: δ = δ * derivative(l(w*h + b)) dw = δ * h.T db = δ // 累积偏导数 dw_sum = dw_sum + dw db_sum = db_sum + db s = s + 1 // 如果累积达到S个样本,更新权重和偏置 if s == S: w = w - α * dw_sum b = b - α * db_sum s = 0 dw_sum = 0 db_sum = 0 // 如果还有未达到S个样本的偏导数,更新权重和偏置 if s > 0: w = w - α * dw_sum b = b - α * db_sum ``` 以上是标准BP算法累积BP算法的实现方法,需要注意的是,实现时需要根据具体情况来选择激活函数、损失函数和学习率等参数。
评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值