神经网络前向反向传播

本文深入探讨了神经网络中的前向传播和反向传播过程。前向传播将输入通过权重和激活函数转化为输出,而反向传播则利用梯度下降更新权重,以最小化损失函数。讲解了各个层的计算细节,包括输入、输出、偏置项的处理,并展示了向量化实现的方式,为理解神经网络的学习机制提供了清晰的指导。
摘要由CSDN通过智能技术生成

神经网络前向反向传播

神经网络传播示意图

前向传播

输入: a [ L − 1 ] a^{[L-1]} a[L1]
输出: a [ L ] a^{[L]} a[L] z [ L ] z^{[L]} z[L]
传播过程:
Z [ L ] = W [ L ] ∗ A [ L − 1 ] + b [ L ] Z^{[L]}=W^{[L]}*A^{[L-1]}+b^{[L]} Z[L]=W[L]A[L1]+b[L]
A [ L ] = g [ L ] ( Z [ L ] ) A^{[L]}=g^{[L]}(Z^{[L]}) A[L]=g[L](Z[L])

反向传播

输入: d a [ 1 ] da^{[1]} da[1]
输出: d a [ L − 1 ] da^{[L-1]} da[L1] d W [ L ] dW^{[L]} dW[L] d b [ L ] db^{[L]} db[L]
传播过程:
d z [ L ] = d a [ L ] ∗ g [ L ] ′ ( z [ L ] ) d w [ L ] = d z [ L ] ∗ a [ L − 1 ] d b [ L ] = d z [ L ] d a [ L − 1 ] = w [ L ] T ∗ d z [ L ] dz^{[L]}=da^{[L]}*g^{[L]'}(z^{[L]})\\ dw^{[L]}=dz^{[L]}*a^{[L-1]}\\ db^{[L]}=dz^{[L]}\\ da^{[L-1]}=w^{[L]T}*dz^{[L]} dz[L]=da[L]g[L](z[L])dw[L]=dz[L]a[L1]db[L]=dz[L]da[L1]=w[L]Tdz[L]
向量化实现:
d Z [ L ] = d A [ L ] ∗ g [ L ] ′ ( Z [ L ] ) d W [ L ] = 1 m ∗ d Z [ L ] ∗ A [ L − 1 ] T d b [ L ] = 1 m ∗ n p . s u m ( d Z [ L ] , a x i s = 1 , k e e p d i m = T r u e ) d A [ L − 1 ] = W [ L ] T ∗ d Z [ L ] dZ^{[L]}=dA^{[L]}*g^{[L]'}(Z^{[L]})\\ dW^{[L]}=\frac{1}{m}*dZ^{[L]}*A^{[L-1]T}\\ db^{[L]}=\frac{1}{m}*np.sum(dZ^{[L]},axis=1,keepdim=True)\\ dA^{[L-1]}=W^{[L]T}*dZ^{[L]} dZ[L]=dA[L]g[L](Z[L])dW[L]=m1dZ[L]A[L1]Tdb[L]=m1np.sum(dZ[L],axis=1,keepdim=True)dA[L1]=W[L]TdZ[L]

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值