通俗易懂的梯度下降法详解

1、什么是梯度下降法?

梯度下降法在机器学习中常常用来优化损失函数,是一个非常重要的工具。用更加通俗的方式来解释:梯度下降法的作用就是寻找一个 「极小值点」,从而让函数的值尽可能地小。如下图所示,为函数y=xsinx的图像,存在多个局部极小值点,这么多极值点,怎么用梯度下降法找到呢?
函数 y=x *sinx 在这里插入图片描述
梯度其实就是函数的变化率,用数学表达式其实可以表示为函数的倒数或者偏导数,梯度既有大小也有方向,寻找函数的 局部极小值可以理解为就是寻找
梯度(函数导数)为0 且左边导数小于0 且右边导数大于0*的点位(自己认为比较接地气的理解),而梯度下降法就是为了找到局部极小值点,就是朝着梯度下降的方向搜索(即使当前变量的值 - 当前梯度方向)。

此时可能会有人疑惑为什么不直接令其导数等于0,再根据其左右两边的导数正负判断极小值点???。是的,大家说的都非常有道理,简单的函数可以直接这么干,但是对于一些非常复杂的函数,其导数也相当复杂,求解当然也是一件非常复杂的事情,故而有了梯度下降法来求解极小值。

2、梯度下降法的定义

在这里插入图片描述其中第(3)步中的梯度即为函数求导

3、梯度下降法求解实例

举一个简单的例子,利用梯度下降法求函数 y= x^2的极小值:

在这里插入图片描述
备注:计算步长一般情况下不能太大,否则容易出现左右跳动的情况,导致收敛变慢,如下如所示
在这里插入图片描述

4、多元函数的梯度下降

如果变量为多个,那么就需要分别对每个变量求偏导数,然后合并在一起,得到一个多元向量,如下面例子所示,最后按照 梯度下降法的定义 去计算
在这里插入图片描述
如下图中,使用红色箭头表示当前所在的位置,随后使用 「黑色」 箭头代表其中一个轴上的坐标朝向哪个方向变化可以使得函数值 「y」 减小,并使用 「黄色」 箭头代表另外一个轴上的坐标朝向哪个方向变化可以使得函数值 「y」 减小。根据平行色变形法则有了 「黑色」 向量和 「黄色」 向量,就可以知道这两个向量最终达到的效果就是 「蓝色」 向量所达到的效果。

在这里插入图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值