【深度学习】02 - 梯度下降法和反向传播

本文探讨了最优化策略,包括随机搜寻、局部搜索和梯度下降。重点介绍了反向传播的概念,它是基于正向传播计算损失的梯度,用于更新神经网络的权重。通过示例解释了在正向传播后如何进行反向传播,计算各层参数的偏导数。无论网络多复杂,反向传播都是通过链式法则逐层进行的。同时,以Sigmoid函数为例,进一步阐述了正向传播和反向传播的过程。
摘要由CSDN通过智能技术生成

最优化

策略1:随机搜寻(不太实用)

在这里插入图片描述

策略2:随机局部搜索

在这里插入图片描述

策略3:顺着梯度下滑

在这里插入图片描述

计算梯度

在这里插入图片描述在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

反向传播

在这里插入图片描述
下图中,从左到右,输入到输出,就是正向传播过程

假如:输入x = -2,y=5,则q的位置是加号,他俩相加,得出q = 3,则同理,f就得出来-12的结果,该过程称之为正向传播
在这里插入图片描述

那么什么是反向传播呢?反向传播一定是建立在正向传播的基础上的,反向传播我们应该从右往左看,依次求得他们的偏导,我们的目的是求出来,f对x,y,z的偏导数,并且根据已知进行赋值。下图中每个字母旁边红色的字就是反向传播的结果

首先我们看f,f对f的偏导,那就是1,因此得出1
其次是f对于q的偏导,求得结果是z,而z的值是-4,因此,q的位置就是-4
然后我们求得f对z的偏导,求得结果是q,而q的值是3,我们就把3的值赋给z
然后我们求f对x的偏导,需要用到链式法则,先求f对q的偏导,再乘以q对x的偏导,求得结果是1*(-4),因此,f对x的偏导结果是-4,同理可得y也是-4

在这里插入图片描述
因此不管多么复杂的神经网络,本质都是一个链式法则,都是先进行正向传播,然后一层层利用偏导数计算反向传播的每一个参数的值。

Sigmoid例子

由上边的进行计算正向传播和反向传播例子

在这里插入图片描述
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

李易安QSR

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值