(13)Gradient Descent

本文探讨了使用梯度下降法寻找地图海拔最低点的过程,解释了为何局部最优并不一定是全局最优,并分析了在存在较高点的情况下,梯度下降法可能无法跨越障碍的原因。通过实例阐述了在参数更新过程中,loss值有时不降反增的现象,揭示了梯度下降法的局限性及其在优化问题中的应用挑战。
摘要由CSDN通过智能技术生成

举例说明:地图上的海拔就是loss function的值,现在来找海拔的最低点,现在调整参数的值,找到loss最低的地方,用gradient descent的方法怎么做呢?

首先是找一个随机初始的地方,让这个随机的点往比较低的地方走,一直走到最低的点,所以这个最低的点就是local minima,那这个local minima是不是goabl minima呢?但是我们是不知道的。

哪有人就会问为什么用gradient descent的方法更新参数得到的loss不降反增呢?

举例说明:从开始的起点用gradient descent的方法来更新参数,那这个初始的点往比较低的地方走,反复用gradient descent的方法走到最低点,但是周围若有较高的点,用gradient descent的方法是跨不过去的。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值