反向传播算法几个重要公式的详细推导

本文详细解析斯坦福大学《MachineLearning》课程中的反向传播算法核心公式,通过逐步推导帮助理解神经网络误差如何反向传播及各公式背后的含义。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

斯坦福大学《Machine Learning》第五周学习过程中,对反向传播算法的几个公式看得云里雾里的,这里做一个详细的推导和总结

  • 公式一:
  • 公式二:
  • 公式三:

首先已知,这个是我们定义的,不用推导,但是为什么要这样定义呢?

我们给神经元的加权输入添加一点改变,这就导致了神经元的输出变成了,而不是之前的。这个改变在后续的网络层中传播,最终使全部代价改变了。因此,可以用来衡量神经元里的错误量.

 

公式一证明:

要证明

也就是证明 (1) 这个式子就是反向传播的核心式子,和我们求a的过程是一样的,只是方向相反。

 (2) 这里第二个等号后面的累加符号不太好理解,你可以这样想,(l+1)层的每个z都是z(l)j的函数,z(l)j的细小改变会影响到整个z(l+1)的变化,打个比方,M = u(x,y)+v(x,y),M对u或者v求偏导就类同J对l+1层的z求导,M对x或者y求偏导就类同J对z(l)j求导,这也就是求导公式的链式法则。

 (3)

将(3)代入(2)即得到我们要证明的(1),证毕

公式二证明:

公式三证明:

 

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值