吴恩达2022机器学习专项课程C1W1:1.15 梯度下降

问题预览

  1. 梯度下降算法的作用是?
  2. 梯度下降的过程?
  3. 梯度下降和最小化成本函数的联系?
  4. 所有的成本函数都是一个形状吗?
  5. 在非凸形状中,梯度下降的更新过程是?
  6. 在非凸形状中,不同的初值对最小化成本函数的影响是?
  7. 什么是局部最小值?

笔记

1.梯度下降算法的作用

梯度下降算法可以计算大多数函数的最小值。

2.梯度下降的过程

先给w,b设置初始值,一般为0,梯度下降算法不断更新w,b,如果有多个w,则不断更新每个w,直至成本函数接近或达到最小值。

3.梯度下降最小化成本函数

由图可知,梯度下降是在不断计算并更新w,b,而成本函数的值是通过w,b才能计算的。由此可以将梯度下降和最小化成本函数结合观察。

4.不同成本函数的形状

不同的成本函数形状也不同,例如神经网络模型可能用到的某个成本函数,呈现多曲面非凸状。

在这里插入图片描述

5.梯度下降的更新过程

梯度下降算法不断更新成本函数的值,每次更新都尽量让成本函数的值下降的最快,直至局部或全局最低点。

在这里插入图片描述

6.不同的w,b对梯度下降的影响

在非凸形状中,w,b的初始值不同,梯度下降的起点也不同,最终计算的成本函数最小值也不同。

在这里插入图片描述

7.局部最小值

如上图示例,不同的w,b起始位置,会计算出不同的成本函数最小值,两个不同的最小值被称为局部最小值。

总结

梯度下降算法的作用是为了最小化函数。我们需要成本函数的最小值,借此得到最优的w,b,因此我们使用梯度下降算法去最小化成本函数。梯度下降在计算线性回归的成本函数时,不断更新w,b,尽量让成本函数最快达到最小值。线性回归的平方误差成本函数只有一个最小值,而在神经网络模型中使用的某些成本函数可能会在3d空间中呈现出多个局部最小值,这取决于成本函数的具体形状。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值