BP算法

key points:

  • 在一些神经网络中能够比早期的一些算法学习的更快

  • W(jk)=W’(kj)

  • 损失函数对不同变量的偏导表示了,相应的变量的变化对损失函数的影响率。

  • BP3: Cblj=δlj

  • 对于BP4: Cwljk=al1kδlj , 即 Cw=ainδout , 当 ain0 时,w与b的学习变慢。

  • 根据BP1: δL=aCσ(zL) ,当最后一层的神经元的激活值近似于0或1时,w与b的学习也会变慢,通常我们称之为输出神经元饱和。

  • 根据BP2: δl=((w(l+1))Tδ(l+1))σ(zl) ,同样的,当 l 层神经元饱和时,w与b的学习变慢,也就是说,输出到一个饱和神经元的参数的学习会变慢,但如果(w(l+1))Tδ(l+1)足够大,情况则不同。

  • 总结起来也就是,当输入神经元低激活或者输出神经元饱和(低激活或高激活)时,网络学习变慢。

  • BP方程并不限定于特定的激活函数,我们可以设计具有某种特定学习属性的激活函数,比如导数恒正且不趋于0的激活函数,以避免sigmoid神经元出现的饱和现象。

  • 矩阵的各种运算法则、各种矩阵的产生:考虑设计原因,为了哪些应用场景而设计。

  • BP算法的产生:将损失函数梯度的计算转化为数学问题,因此沿着网络传递信息相反的方向求偏导便是理所当然的一种方法。

BP方程

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值