梯度,方向导数,相关概念

1.

http://blog.cvmarcher.com/posts/2015/06/27/gradient-descent/



梯度下降法是求解神经网络的方法中最流行的一个,思想很简单,就是函数沿着梯度的方向下降的最快。通常来讲,我们在求解机器学习问题的时候,都会定义一个目标函数,然后基于这个目标函数又定义出损失函数,通过最小化损失函数来使得目标函数达到最优。那么在最小化损失函数的时候就可以用上梯度下降了。

思想简单,实现也很简单。在这篇文章里面,我主要是想讲讲梯度这个东西,因为我经常会被这个概念搞糊涂掉。梯度大一高数(记忆中高中也是讲过…)有教。什么是梯度?首先,它是一个向量,那向量肯定会有方向嘛,梯度的方向呢是使得方向导数达到最大值的方向,它的模就是方向导数的最大值。那什么是方向导数?理解这个东西需要知道导数这个概念,下面我打算从数学定义来说明导数/偏导数/方向导数/梯度这四个东西。

导数

这个我想没有人会不知道。

定义
当函数 y=f(x) y=f(x)的自变量在一点 x0 x0上产生一个增量 Δx Δx时,函数输出值的增量与自变量增量 Δx Δx的比值在 Δx Δx趋于 0 0时的极限如果存在,即为 f(x) f(x) x0 x0处的导数,记作 f(x0) f′(x0) dfdx(x0) dfdx(x0) dfdxx=x0 dfdx|x=x0

我们从小到大对导数的认识就是认为它是函数曲线在相应点的切线的斜率。

偏导数

慢慢的,我们当然不能仅限于一元函数的情况,那么多元函数求导是一个怎么概念?在多元函数情况下,通常我们计算的是偏导数,那么什么是偏导数?简单来讲,就是函数只对某个变量求导得到的导数就是函数关于这个变量的偏导数。比方说,对于二元函数 z=f(x,y) z=f(x,y),当我们把 y y固定住,然后对 x x求导,那么得到的导数称为 f(x,y) f(x,y) x x的偏导数,记为 dzdx dzdx。同样的,固定 x x,对 y y求导得到的便是对 y y的偏导数,记为 dzdy dzdy

方向导数

那么实际上,偏导数 dzdx dzdx dzdy dzdy是函数沿着相应的坐标轴方向的变化率(因为每次我们都固定住其它的变量),那么如果需要同时考虑其他方向的变化率,该怎么办?这就引申出方向导数的概念了。

定义
z=f(x,y) z=f(x,y)在一点 P0(x0,y0) P0(x0,y0)的一个邻域内有定义,又设 l l→是给定的一个方向,其方向余弦为 (cosα,cosβ) (cosα,cosβ),若极限
limt0f(x0+tcosα,y0+tcosβ)f(x0,y0)t limt→0f(x0+tcosα,y0+tcosβ)−f(x0,y0)t
存在,则称此极限值为函数 z=f(x,y) z=f(x,y) P0 P0点沿方向 l l→的方向导数,记为 dzdlx0,y0 dzdl→|x0,y0

实际上, dzdlx0,y0 dzdl→|x0,y0是等于 dzdxx0,y0cosα+dzdyx0,y0cosβ dzdx|x0,y0cosα+dzdy|x0,y0cosβ

其中 t t为点 P0(x0,y0) P0(x0,y0)到点 Pt(x0+tcosα,y0+tcosβ) Pt(x0+tcosα,y0+tcosβ)的距离。

很容易推广到多元的情况,比如三元函数 u=f(x,y,z) u=f(x,y,z)在点 P0(x0,y0,z0) P0(x0,y0,z0)沿方向 l l→的方向导数如下面是式子, l l→方向的方向余弦为 (cosα,cosβ,cosγ) (cosα,cosβ,cosγ)

dudlx0,y0,z0=dudxx0,y0,z0cosα+dudyx0,y0,z0cosβ+dudyx0,y0,z0cosγ dudl→|x0,y0,z0=dudx|x0,y0,z0cosα+dudy|x0,y0,z0cosβ+dudy|x0,y0,z0cosγ

梯度

因为引入了方向导数,那么自然而然就会想,在同一点上的所有方向导数中是否有最大值?显然是有的,而且这个方向导数就是梯度了!

假设令 g=(dzdxx0,y0,dzdyx0,y0) g→=(dzdx|x0,y0,dzdy|x0,y0),那么就有

dzdlx0,y0=gl=|g||l|cosg,l=|g|cosg,l dzdl→|x0,y0=g→⋅l→=|g→||l→|cos⟨g→,l→⟩=|g→|cos⟨g→,l→⟩

显然,当 g,l=0 ⟨g→,l→⟩=0的时候,也就是 gl g→跟l→同向的时候,函数关于 l l→的方向导数最大,且最大值为 |g| |g→|

这里, g=(dzdxx0,y0,dzdyx0,y0) g→=(dzdx|x0,y0,dzdy|x0,y0)就成为函数在点 P0(x0,y0) P0(x0,y0)的梯度,记为 grad z|x0,y0 grad z|x0,y0

梯度下降法也是从这里来,当我们在求解的时候没办法直接得到最优解,只能不断逼近最优解,而逼近的时候又想尽可能的快,那么只能沿着函数变化最剧烈的方法(也就是梯度方向)的反方向走。这里顺便提一下梯度上升法,其实是跟梯度下降法一样,只是它是用于求解函数的最大值,在逼近最优解的时候,沿着梯度方向走。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值