【吴恩达深度学习专栏】浅层神经网络(Shallow neural networks)——直观理解反向传播(Backpropagation intuition)

本节视频深入解析反向传播(Backpropagation)的直观理解,通过逻辑回归的推导引入,阐述在神经网络中如何进行多层计算的梯度传递。虽然反向传播的数学推导复杂,但理解其基本原理对于训练神经网络至关重要。吴恩达强调,权重随机初始化对于避免梯度消失问题有关键作用。
摘要由CSDN通过智能技术生成

3.10(选修)直观理解反向传播(Backpropagation intuition)

这个视频主要是推导反向传播。
下图是逻辑回归的推导:
回想一下逻辑回归的公式(参考公式3.2、公式3.5、公式3.6、公式3.15) 公式3.38:

在这里插入图片描述
所以回想当时我们讨论逻辑回归的时候,我们有这个正向传播步骤,其中我们计算z,然后a,然后损失函数L。
公式3.39:

在这里插入图片描述
神经网络的计算中,与逻辑回归十分类似,但中间会有多层的计算。下图是一个双层神经网络,有一个输入层,一个隐藏层和一个输出层。
前向传播:

在这里插入图片描述
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值