对梯度概念的直观理解

最近在学习机器学习的时候,对于梯度这个概念的理解比较模糊,网上找到了这篇文章帮我比较好的理顺了对梯度的理解,原文地址:https://www.v2ex.com/t/397822

原文中对数学公式的显示(Latex)支持不好,很难阅读,我这里整理了以后转载到自己博客这边来。

以下是原文


这几天看机器相关的书籍,对一些概念有了新的理解,分享给大家,欢迎大家批评指正。

V2EX 似乎不能显示 Latex,可以在以下两个网址查看原文:

原文链接一: https://cent.metaquant.org/2017/grad.html

原文链接二: https://coding.net/u/metaquant/p/blog/topic/360699

以下为正文:


在机器学习中,我们通常需要对问题进行建模,然后可以得到一个成本函数(cost function),通过对这个成本函数进行最小化,我们可以得到我们所需要的参数,从而得到具体的模型。这些优化问题中,只有少部分可以得到解析解(如最小二乘法),而大部分这类优化问题只能迭代求解,而迭代求解中两种最常用的方法即梯度下降法与牛顿法。为了使用这两种方法,我们需要计算成本函数的梯度与海森矩阵,这篇文章简要说明了如何使用 python 的符号计算库 sympy 来计算特定函数的梯度与海森矩阵,求解机器学习中的最优化问题。

对梯度的直观理解


梯度概念是建立在偏导数与方向导数概念基础上的。所谓偏导数,简单来说是对于一个多元函数,选定一个自变量并让其他自变量保持不变,只考察因变量与选定自变量的变化关系。数学上说,是指对于多元函数 y=f(x1,x2,...xn) y = f ( x 1 , x 2 , . . . x n ) ,假设其偏导数都存在,则该函数共有 n n 个偏导数,可以表示为:

fx1=yx1,fx2=yx2...fxn=yxn

偏导数只能表示多元函数沿某个坐标轴方向的导数,如对于二元函数 z=x2+y2 z = x 2 + y 2 zx=2x ∂ z ∂ x = 2 x 表示函数沿 X X 轴方向的导数,而zy=2y表示函数沿 Y Y 轴方向的导数。

除开沿坐标轴方向上的导数,多元函数在非坐标轴方向上也可以求导数,这种导数称为方向导数。很容易发现,多元函数在特定点的方向导数有无穷多个,表示函数值在各个方向上的增长速度。一个很自然的问题是:在这些方向导数中,是否存在一个最大的方向导数,如果有,其值是否唯一?为了回答这个问题,便需要引入梯度的概念。

一般来说,梯度可以定义为一个函数的全部偏导数构成的向量(这一点与偏导数与方向导数不同,两者都为标量)。一般将函数f的梯度记为 f ∇ f ,即:

事实上,梯度向量的方向即为函数值增长最快的方向,为什么会如此,可以从几个角度去理解。

在上图中,我们可以看到,为了找到方向导数中的最大值,我们可以将其投影到 xy x y 平面来理解,这种投影方式对应的便是等高线图。如对于一个二元函数 z=f(x,y) z = f ( x , y ) ,我们可以画出它的等高线图如下:

该函数的等高线图为圆心在原点的一系列圆,等高线的值由里向外逐渐增加。点 B(x,y) B ( x , y ) 为点 (x,y,z) ( x , y , z ) xy x y 平面上的投影,可以看到向量 AB A B → 即为函数在点 (x,y,z) ( x , y , z ) 处的梯度向量。根据方向导数的定义,方向导数 Duf=fxcosθ+fysinθ D u f = f x cos ⁡ θ + f y sin ⁡ θ ,其中 θ θ 为此向量与 X X 正方向的夹角。由于梯度向量为u=(fx,fy),单位向量 w=(cosθ,sinθ) w = ( c o s θ , sin ⁡ θ ) ,则方向导数的大小可以表述为梯度向量与此单位向量的数量积,即:

Duf=fxcosθ+fysinθ=uw=|u||w|cosα=|u|cosα D u f = f x cos ⁡ θ + f y sin ⁡ θ = u → ⋅ w → = | u | ⋅ | w | ⋅ cos ⁡ α = | u | ⋅ cos ⁡ α

其中 α α 为梯度向量与单位向量之间的夹角,即 BAD ∠ B A D 。可以看出,方向导数的大小可以看作梯度向量在指示方向导数方向的单位向量上的投影,即线段 AE A E 的长度。显而易见,线段 AE A E 的长度小于线段 AB A B 的长度,也即梯度向量的模总是大于等于方向导数向量的模。这就解释了为什么沿着梯度向量方向是函数值增长最快的方向,而它正是函数所有偏导数构成的向量。

在上图中也可以看出,梯度向量垂直于等高线,这为我们提供了另一个观察梯度向量的角度。如对于函数 f(x,y)=xy f ( x , y ) = x y ,其等高线图与梯度向量如下:

我们可以两个角度考虑:第一,在特定函数点,固定每次移动的步长,向哪个方向移动函数值增长最快?第二,固定需要增加的函数值,向哪个方向需要移动的步长最短?

在左图中,固定移动的步长,我们可以看到垂直于等高线图的方向即为函数值增长最快的方向,也就是梯度向量指示的方向。在右图中,假设函数值有一个固定的微小的增长,则明显梯度向量指示的方向所需要的步长最短,而这个向量也是垂直于等高线的。

梯度下降或上升法正是基于梯度指示函数值增长最快的方向而产生的,利用这个方法,我们可以使用迭代的方法计算函数的最大或最小值,从而解决机器学习中遇到的最优化问题。

使用 sympy 计算函数的梯度与海森矩阵


sympy 是 python 的开源符号计算库,它的主要功能与 Mathematica 类似,但相比于 Mathematica 它也有一些优势:它是免费的,而 Mathematica 相当昂贵;轻量,对于日常符号计算,它提供的功能已经够用,而安装起来也很容易;它是一个 python 库,这意味着你可以与你其它的 python 程序一起使用,任意扩展它的功能。对于 sympy 的使用,完整的介绍可以阅读它的文档,这里只简要介绍它的基本用法。

与 mathematica 不同,sympy 在使用符号前需要先创建,如下

from sympy import *
x, y, z = symbols('x y z')

然后你可以利用这些符号创建其它的表达式,如函数 f(x,y)=x2+y2 f ( x , y ) = x 2 + y 2

f = x^2 + y^2

你可以利用这个表达式生成新的表达式:

g = f + 1
h = f**2

g(x,y)=x2+y2+1 g ( x , y ) = x 2 + y 2 + 1 ,而 h(x,y)=x4+2x2y2+y4 h ( x , y ) = x 4 + 2 x 2 y 2 + y 4 。我们可以求函数的微分:

diff(f,x)
diff(f,y)
diff(f,x,x)
diff(f,x,2)

分别表示 fx ∂ f ∂ x fy ∂ f ∂ y 2fx2 ∂ 2 f ∂ x 2 2fx2 ∂ 2 f ∂ x 2 ,可以看出二阶导数可以有两种写法。

当我们求出表达式后,我们可能想要代入数值计算,这可以使用lambdify函数来实现:

u = lambdify((x,y),f)
u(1,1)

这表示 f(1,1)=2 f ( 1 , 1 ) = 2

为了求函数的梯度与海森矩阵,我们需要引入向量微分的概念,即我们可以将梯度看作一个数量函数对自变量向量的上阶导数,而海森矩阵为数量函数对自变量量向量的二阶导数,设函数为 f(x1,x2,x3,xn) f ( x 1 , x 2 , x 3 , ⋯ x n ) ,则自变量向量为 x=(x1,x2,x3,xn) x → = ( x 1 , x 2 , x 3 , ⋯ x n ) ,则梯度与海森矩阵可以分别表述为 f=dfdx ∇ f = d f d x → H=d2fdx2 H = d 2 f d x → 2

在 sympy 中,可以通过函数derive_by_array实现上述计算:

from sympy.tensor.array import derive_by_array
grad = Matrix(derive_by_array(f,(x,y)))
hessian = Matrix(derive_by_array(grad,(x,y))).reshpae(2,2)

其中Matrix类可以将结果表达为 sympy 中的矩阵形式。上面的计算结果分别为: f=[2x2y] ∇ f = [ 2 x 2 y ] , H=[2002] H = [ 2 0 0 2 ] ,分别为函数的梯度向量与海森矩阵。

为了简化计算梯度与海森矩阵的代码,可以编写一个自定义函数对相应功能进行封装,如下:

def grad(f,*args):
    from sympy.tensor.array import derive_by_array
    gradient = Matrix(derive_by_array(f,args))
    return gradient

def hessian(f,*args):
    from sympy.tensor.array import derive_by_array
    n = len(args)
    gradient = Matrix(derive_by_array(f,args))
    hessian = Matrix(derive_by_array(gradient, args)).reshape(n,n)
    return hessian

如对于函数 f(x,y)=exy+sin(x+2z)z3 f ( x , y ) = e x y + sin ⁡ ( x + 2 z ) − z 3 ,则有:

grad(f,x,y,z)
hessian(f,x,y,z)

则梯度为:

f=yexy+cos(x+2z)xexy3z2+2cos(x+2z) ∇ f = [ y e x y + cos ⁡ ( x + 2 z ) x e x y − 3 z 2 + 2 cos ⁡ ( x + 2 z ) ]

则海森矩阵为:

H=y2exysin(x+2z)xyexy+exy2sin(x+2z)xyexy+exyx2exy02sin(x+2z)06z4sin(x+2z) H = [ y 2 e x y − sin ⁡ ( x + 2 z ) x y e x y + e x y − 2 sin ⁡ ( x + 2 z ) x y e x y + e x y x 2 e x y 0 − 2 sin ⁡ ( x + 2 z ) 0 − 6 z − 4 sin ⁡ ( x + 2 z ) ]

可以看出,使用 sympy 计算函数的梯度与海森矩阵相当便捷,省去了繁琐易错的手工微分过程。对于以上计算结果,我们只需要使用lambdify函数代入数值就可以得到梯度向量与海森矩阵的数值结果,从而为实现梯度下降法与牛顿法提供基础。

  • 28
    点赞
  • 62
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值