反向传播解析

本文详细介绍了反向传播算法在神经网络中的应用,包括单个样本计算梯度的过程和m个训练样本的梯度平均计算方法。通过示例阐述了如何在逻辑回归中进行梯度计算,并讨论了神经网络的前向传播与反向传播流程,特别是在两层神经网络中的实现细节。
摘要由CSDN通过智能技术生成

对于单个样本计算一次梯度:

                                            

                                       

在逻辑回归中,我们要做的就是修改参数w和b,来减少损失函数。因为我们要计算关于损失函数的导数,反向传播时,首先计算损失函数对于da的导数。

                                             da = dL/da = -y/a+(1-y)/(1-a) 。

继续往回,算出损失函数对z的导数:

                                           dz = dL/dz = (dL/da)*(da/dz) = da*a(1-a) = a-y

 其中 da/dz=a(1-a) 注:仅对于sigmoid函数成立。

现在可以计算当前L层的dw,db。

小结:

(1)以上为单个隐藏层时的梯度计算,扩展到多个隐藏层,只需继续往回走。

(2)可以注意到,每次往回计算(L-1)层的导数时,都会用到

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值