[深度学习]为什么梯度反方向是函数值下降最快的方向?

1. 版本一用泰勒公式展开式解释

1.1. 什么是梯度?

对于梯度下降算法(Gradient Descent Algorithm),我们都已经很熟悉了。无论是在线性回归(Linear Regression)、逻辑回归(Logistic Regression)还是神经网络(Neural Network)等等,都会用到梯度下降算法。我们先来看一下梯度下降算法的直观解释:

假设我们位于黄山的某个山腰处,山势连绵不绝,不知道怎么下山。于是决定走一步算一步,也就是每次沿着当前位置最陡峭最易下山的方向前进一小步,然后继续沿下一个位置最陡方向前进一小步。这样一步一步走下去,一直走到觉得我们已经到了山脚。这里的下山最陡的方向就是梯度的负方向。

首先理解什么是梯度?通俗来说,梯度就是表示某一函数在该点处的方向导数沿着该方向取得最大值,即函数在当前位置的导数。

∇ = d f ( θ ) d θ ∇= \frac{df(θ)}{dθ} =dθdf(θ)

上式中,θ是自变量,f(θ)是关于θ的函数,θ表示梯度。

1.2 梯度下降算法

如果函数f(θ)是凸函数,那么就可以使用梯度下降算法进行优化。梯度下降算法的公式我们已经很熟悉了:
θ = θ 0 − η ⋅ ∇ f ( θ 0 ) θ=θ_0−η⋅∇f(θ_0) θ=θ0ηf(θ0)
其中,θ0θ0是自变量参数,即下山位置坐标,ηη是学习因子,即下山每次前进的一小步(步进长度),θθ是更新后的θ0θ0,即下山移动一小步之后的位置。

梯度下降算法的公式非常简单!但是”沿着梯度的反方向(坡度最陡)“是我们日常经验得到的,其本质的原因到底是什么呢?为什么局部下降最快的方向就是梯度的负方向呢?也许很多朋友还不太清楚。没关系,接下来我将以通俗的语言来详细解释梯度下降算法公式的数学推导过程

1.3 一阶泰勒展开式

这里需要一点数学基础,对泰勒展开式有些了解。简单地来说,泰勒展开式利用的就是函数的局部线性近似这个概念。我们以一阶泰勒展开式为例:
f ( θ ) ≈ f ( θ 0 ) + ( θ − θ 0 ) ⋅ ∇ f ( θ 0 ) f(θ)≈f(θ0)+(θ−θ_0)⋅∇f(θ_0) f(θ)f(θ0)+(θθ0)f(θ0)

附上高数书上的泰勒展开式
在这里插入图片描述
不懂上面的公式?没有关系。我用下面这张图来解释。
在这里插入图片描述
凸函数 f ( θ ) f(θ) f(θ)的某一小段 [ θ 0 , θ ] [θ_0,θ] [θ0,θ]由上图黑色曲线表示,可以利用线性近似的思想求出f(θ)f(θ)的值,如上图红色直线。该直线的斜率等于 f ( θ ) f(θ) f(θ) θ 0 θ_0 θ0处的导数。则根据直线方程,很容易得到 f ( θ ) f(θ) f(θ)的近似表达式为:

f ( θ ) ≈ f ( θ 0 ) + ( θ − θ 0 ) ⋅ ∇ f ( θ 0 ) f(θ)≈f(θ_0)+(θ−θ_0)⋅∇f(θ_0) f(θ)f(θ0)+(θθ0)f(θ0)
这就是一阶泰勒展开式的推导过程,主要利用的数学思想就是曲线函数的线性拟合近似。

1.4 梯度下降数学原理

知道了一阶泰勒展开式之后,接下来就是重点了!我们来看一下梯度下降算法是如何推导的。

先写出一阶泰勒展开式的表达式:
f ( θ ) ≈ f ( θ 0 ) + ( θ − θ 0 ) ⋅ ∇ f ( θ 0 ) f(θ)≈f(θ_0)+(θ−θ_0)⋅∇f(θ_0) f(θ)f(θ0)+(θθ0)f(θ0)
其中, θ − θ 0 θ−θ_0 θθ0是微小矢量,它的大小就是我们之前讲的步进长度η,类比于下山过程中每次前进的一小步,η为标量,而 θ − θ 0 θ−θ_0 θθ0的单位向量用vv表示。则 θ − θ 0 θ−θ_0 θθ0可表示为
θ − θ 0 = η v θ−θ_0=ηv θθ0=ηv

特别需要注意的是, θ − θ 0 θ−θ_0 θθ0不能太大,因为太大的话,线性近似就不够准确,一阶泰勒近似也不成立了。替换之后,f(θ)的表达式为:
f ( θ ) ≈ f ( θ 0 ) + η v ⋅ ∇ f ( θ 0 ) f(θ)≈f(θ_0)+ηv⋅∇f(θ_0) f(θ)f(θ0)+ηvf(θ0)
重点来了,局部下降的目的是希望每次θ更新,都能让函数值f(θ)变小。也就是说,上式中,我们希望 f ( θ ) < f ( θ 0 ) f(θ)<f(θ_0) f(θ)<f(θ0)。则有:

f ( θ ) − f ( θ 0 ) ≈ η v ⋅ ∇ f ( θ 0 ) < 0 f(θ)−f(θ_0)≈ηv⋅∇f(θ_0)<0 f(θ)f(θ0)ηvf(θ0)<0
因为η为标量,且一般设定为正值,所以可以忽略,不等式变成了:
v ⋅ ∇ f ( θ 0 ) < 0 v⋅∇f(θ_0)<0 vf(θ0)<0

上面这个不等式非常重要!v和 ∇ f ( θ 0 ) ∇f(θ_0) f(θ0)都是向量, ∇ f ( θ 0 ) ∇f(θ_0) f(θ0)是当前位置的梯度方向,v表示下一步前进的单位向量,是需要我们求解的,有了它,就能根据 θ − θ 0 = η v θ−θ_0=ηv θθ0=ηv确定θθ值了。

想要两个向量的乘积小于零,我们先来看一下两个向量乘积包含哪几种情况:
在这里插入图片描述
A和B均为向量,α为两个向量之间的夹角。A和B的乘积为:
A ⋅ B = ∣ ∣ A ∣ ∣ ⋅ ∣ ∣ B ∣ ∣ ⋅ c o s ( α ) A⋅B=||A||⋅||B||⋅cos(α) AB=ABcos(α)
||A||和||B||均为标量,在||A||和||B||确定的情况下,只要cos(α)=−1,即AA和BB完全反向,就能让A和B的向量乘积最小(负最大值)。
顾名思义,当v与 ∇ f ( θ 0 ) ∇f(θ_0) f(θ0)互为反向,即v为当前梯度方向的负方向的时候,能让 v ⋅ ∇ f ( θ 0 ) v⋅∇f(θ_0) vf(θ0)最大程度地小,也就保证了v的方向是局部下降最快的方向。

知道v是 ∇ f ( θ 0 ) ∇f(θ0) f(θ0)的反方向后,可直接得到:

v = − ∇ f ( θ 0 ) ∣ ∣ ∇ f ( θ 0 ) ∣ ∣ v=\frac{−∇f(θ_0)}{||∇f(θ_0)||} v=f(θ0)f(θ0)

之所以要除以 ∇ f ( θ 0 ) ∇f(θ_0) f(θ0)的模 ∣ ∣ ∇ f ( θ 0 ) ∣ ∣ ||∇f(θ_0)|| f(θ0),是因为v是单位向量。

求出最优解v之后,带入到 θ − θ 0 = η v θ−θ_0=ηv θθ0=ηv中,得:

θ = θ 0 − η ∇ f ( θ 0 ) ∣ ∣ ∇ f ( θ 0 ) ∣ ∣ θ=θ_0−η\frac{∇f(θ_0)}{||∇f(θ_0)||} θ=θ0ηf(θ0)f(θ0)
一般地,因为 ∣ ∣ ∇ f ( θ 0 ) ∣ ∣ ||∇f(θ_0)|| f(θ0)是标量,可以并入到步进因子η中,即简化为:
θ = θ 0 − η ∇ f ( θ 0 ) θ=θ_0−η∇f(θ_0) θ=θ0ηf(θ0)

这样,我们就推导得到了梯度下降算法中θ的更新表达式。

1.5总结

我们通过一阶泰勒展开式,利用线性近似和向量相乘最小化的思想搞懂了梯度下降算法的数学原理。也许你之前很熟悉梯度下降算法,但也许对它的推导过程并不清楚。看了本文,你是否有所收获呢

2.版本二用方向导数解释

2.1 导数

导数的几何意义可能很多人都比较熟悉: 当函数定义域和取值都在实数域中的时候,导数可以表示函数曲线上的切线斜率。 除了切线的斜率,导数还表示函数在该点的变化率
在这里插入图片描述将上面的公式转化为下面图像为:

在这里插入图片描述
(来自维基百科)

直白的来说,导数代表了在自变量变化趋于无穷小的时候,函数值的变化与自变量变化的比值代表了导数,几何意义有该点的切线。物理意义有该时刻的(瞬时)变化率…

注意在一元函数中,只有一个自变量变动,也就是说只存在一个方向的变化率,这也就是为什么一元函数没有偏导数的原因。

注意在一元函数中,只有一个自变量变动,也就是说只存在一个方向的变化率,这也就是为什么一元函数没有偏导数的原因。

2.2. 偏导数

既然谈到偏导数,那就至少涉及到两个自变量,以两个自变量为例,z=f(x,y) . 从导数到偏导数,也就是从曲线来到了曲面. 曲线上的一点,其切线只有一条。但是曲面的一点,切线有无数条。

而我们所说的偏导数就是指的是多元函数沿坐标轴的变化率.

F x ( x , y ) F_x(x, y) Fx(x,y) 指的是函数在y方向不变,函数值沿着x轴方向的变化率

F y ( x , y ) F_y(x, y) Fy(x,y)指的是函数在x方向不变,函数值沿着y轴方向的变化率

对应的图像形象表达如下:

在这里插入图片描述
那么偏导数对应的几何意义是是什么呢?

偏导数[ f x ( x 0 , y 0 ) f_x(x_0, y_0) fx(x0,y0)就是曲面被平面 y = y 0 y=y_0 y=y0所截得的曲面在点 M 0 M_0 M0处的切线 M 0 T x M_0T_x M0Tx对x轴的斜率
偏导数 f y ( x 0 , y 0 ) f_y(x_0, y_0) fy(x0,y0)就是曲面被平面 y = x 0 y=x_0 y=x0所截得的曲面在点 M 0 M_0 M0处的切线 M 0 T y M_0T_y M0Ty对y轴的斜率

可能到这里,读者就已经发现偏导数的局限性了,原来我们学到的偏导数指的是多元函数沿坐标轴的变化率,但是我们往往很多时候要考虑多元函数沿任意方向的变化率,那么就引出了方向导数.

2.3 方向导数

终于引出我们的重头戏了,方向导数,下面我们慢慢来走进它

假设你站在山坡上,相知道山坡的坡度(倾斜度)

山坡图如下:

在这里插入图片描述

假设山坡表示为 z = f ( x , y ) z= f(x, y) z=f(x,y),你应该已经会做主要俩个方向的斜率.

y方向的斜率可以对y偏微分得到.

同样的,x方向的斜率也可以对x偏微分得到

那么我们可以使用这俩个偏微分来求出任何方向的斜率(类似于一个平面的所有向量可以用俩个基向量来表示一样)

现在我们有这个需求,想求出u方向的斜率怎么办.假设 z = f ( x , y ) z= f(x, y) z=f(x,y)为一个曲面,, p ( x 0 , y 0 ) p(x_0, y_0) p(x0,y0)为f定义域中一个点,单位向量 u = cos ⁡ θ i − sin ⁡ θ j u =\cos\theta i - \sin \theta j u=cosθisinθj的斜率,其中 θ \theta θ是此向量与x轴正向夹角.单位向量u可以表示对任何方向导数的方向.如下图:

在这里插入图片描述

那么我们来考虑如何求出u方向的斜率,可以类比于前面导数定义,得出如下

f ( x , y ) f(x, y) f(x,y)为一个二元函数, u = cos ⁡ θ i − sin ⁡ θ j u =\cos\theta i - \sin \theta j u=cosθisinθj为一个单位向量,如果下列的极限值存在
在这里插入图片描述

则称这个极限值是 f f f 沿着[公式 u u u 的方向导数,那么随着 θ \theta θ 的不同,我们可以求出任意方向的方向导数.这也表明了方向导数的用处,是为了给我们考虑函数对任意方向的变化率.

在求方向导数的时候,除了用上面的定义法求之外,我们还可以用偏微分来简化我们的计算.
表达式是:
在这里插入图片描述
(至于为什么成立,很多资料有,不是这里讨论的重点)

那么一个平面上无数个方向,函数沿哪个方向变化率最大呢?

目前我不管梯度的事,我先把表达式写出来:
在这里插入图片描述

那么我们可以得到:
在这里插入图片描述

那么此时如果 D u f ( x , y ) D_u f(x, y) Duf(x,y)要取得最大值,也就是当 a a a为0度的时候,也就是向量 I I I(这个方向是一直在变,在寻找一个函数变化最快的方向)与向量 A A A(这个方向当点固定下来的时候,它就是固定的)平行的时候,方向导数最大.方向导数最大,也就是单位步伐,函数值朝这个反向变化最快.

好了,现在我们已经找到函数值下降最快的方向了,这个方向就是和 A A A向量相同的方向.那么此时我把A向量命名为梯度(当一个点确定后,梯度方向是确定的),也就是说明了为什么梯度方向是函数变化率最大的方向了!!!(因为本来就是把这个函数变化最大的方向命名为梯度)

我的理解是,本来梯度就不是横空出世的,当我们有了这个需求(要求一个方向,此方向函数值变化最大),得到了一个方向,然后这个方向有了意义,我们给了它一个名称,叫做梯度

另加两张方向导数的图
在这里插入图片描述
在这里插入图片描述

  • 5
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

茫茫人海一粒沙

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值