梯度下降之--导数与梯度理解

什么是梯度下降?

首先引图(引用)(https://blog.csdn.net/han_xiaoyang/article/details/50178505)


梯度(Gradient)与梯度下降法(Gradient Descent): 深入理解的概念
对于梯度下降首先掌握的基础知识:
回顾:1 导数与偏导数的区别
(1)导数

导数是函数某一点,沿x轴的变化率:


 方向导数

方向导数:给一个方向,出一个实数(函数/标量场沿该方向的变化率)

方向上的导数值。
引:通俗的解释是:
我们不仅要知道函数在坐标轴正方向上的变化率(即偏导数),而且还要设法求得函数在其他特定方向上的变化率。而方向导数就是函数在其他特定方向上的变化率。

3 梯度
梯度的定义:
在函数各个点的变化率的一个向量, 向量的模就是方向导数的值
性质:--梯度是个有大小的值的向量;---最大方向导数的值(向量的模)就是梯度方向;---梯度的值就是最大方向导数的值。
通俗理解梯度:给一个函数/标量场,出一个矢量场(方向为每点方向导数值最大的方向,大小为其变化率的矢量组成的矢量场)。(参考知呼专刊)
引用@忆臻PHD Candidate个人总结的理解:

总结:
方向导数是各个方向上的导数
偏导数连续才有梯度存在
梯度的方向是方向导数中取到最大值的方向,梯度的值是方向导数的最大值

知呼专刊:里面讨论了三个问题  1 如何直观形象的理解方向导数与梯度以及它们之间的关系?      2   为什么所有方向导数中会存在并且只存在一个最大值?而不是有多个最大值、或者说没有最大值? 3  这个最大值在哪个方向取得?值是多少?



  • 14
    点赞
  • 30
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
最优化是指在一定的约束条件下,寻找一个使目标函数取得最大值或最小值的过程。梯度下降法和牛顿法都是最优化问题中常用的方法。梯度下降法是一种迭代优化算法,通过计算目标函数的梯度来不断更新参数的值,直到达到某个停止条件。梯度下降法的思想是沿着目标函数梯度的反方向进行参数调整,以逐步接近最优解。它适用于凸函数和可微函数,并且可以用于求解无约束优化问题和约束优化问题的局部最优解。 牛顿法也是一种迭代优化算法,它利用函数的二阶导数信息(Hessian矩阵)来逼近函数的局部性质,从而更快地收敛到最优解。牛顿法在求解方程根或函数的最小值时非常有效。它经常被用于数学建模、机器学习、数据分析等领域中的参数优化问题,比如最小二乘法、逻辑回归、神经网络等模型的参数优化。 需要注意的是,梯度下降法和牛顿法在不同情况下的效果可能会有所不同。梯度下降法在参数空间中沿着梯度方向逐步搜索最优解,对于大规模数据集和高维参数空间比较适用。而牛顿法利用了更多的二阶导数信息,对于曲率较大的函数,在局部区域更容易找到最优解。但是牛顿法在计算复杂度和存储空间上可能会有一定的挑战。因此,在实际应用中,我们需要根据具体问题的特点选择合适的优化方法。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值