Jacobian矩阵和Hessian矩阵的理解

深度学习中梯度向量的计算,Jacobian矩阵和Hessian矩阵是基础的知识点。

求微分其实就是线性化,导数其实就是线性空间之间的线性变换,Jaocibian矩阵本质上就是导数。

比如,映射f:M\to Nx处的导数df_x就是Mx处的切空间TM_xNf(x)处的切空间TN_{f(x)}之间的线性映射。切空间都是矢量空间,都有基底,所以这个线性变换就是矩阵。在欧氏空间子空间的开集上,切空间就是某个\mathbb{R}^n,比如实轴上的切空间就是\mathbb{R},曲面上的切空间为\mathbb{R}^2。这样一想,函数f:\mathbb{R}\to\mathbb{R}的导数无非就是切空间T\mathbb{R}_x=\mathbb{R}到切空间T\mathbb{R}_{f(x)}=\mathbb{R}的线性变换,是一个1\times 1矩阵,同构于一个实数。

因此,Jacobian矩阵实质上就是切空间之间的基底之间的线性变换,这也是为什么积分中变换坐标时前面会乘以一个Jacobian矩阵的行列式。

1、梯度向量:

定义:

目标函数f为单变量,是关于自变量向量x=(x1,x2,…,xn)T的函数,

单变量函数f对向量x求梯度,结果为一个与向量x同维度的向量,称之为梯度向量;

图像算法:梯度vs Jacobian矩阵vs Hessian矩阵

2、Jacobian矩阵:

定义:

目标函数f为一个函数向量,f=(f1(x),f2(x),…fm(x))T;

其中,自变量x=(x1,x2,…,xn)T;

函数向量f对x求梯度,结果为一个矩阵;行数为f的维数;列数位x的维度,称之为Jacobian矩阵;

其每一行都是由相应函数的梯度向量转置构成的;

【注】:梯度向量Jacobian矩阵的一个特例;

当目标函数为标量函数时,Jacobian矩阵是梯度向量;

图像算法:梯度vs Jacobian矩阵vs Hessian矩阵

雅可比矩阵的重要性在于它体现了一个可微方程与给出点的最优线性逼近. 因此, 雅可比矩阵类似于多元函数的导数.

雅可比行列式

如果m = n, 那么F是从n维空间到n维空间的函数, 且它的雅可比矩阵是一个方块矩阵. 于是我们可以取它的行列式, 称为雅可比行列式.在某个给定点的雅可比行列式提供了 在接近该点时的表现的重要信息. 例如, 如果连续可微函数Fp点的雅可比行列式不是零, 那么它在该点附近具有反函数. 这称为反函数定理. 更进一步, 如果p点的雅可比行列式是正数, 则Fp点的取向不变;如果是负数, 则F的取向相反. 而从雅可比行列式的绝对值, 就可以知道函数Fp点的缩放因子;这就是为什么它出现在换元积分法中.

对于取向问题可以这么理解, 例如一个物体在平面上匀速运动, 如果施加一个正方向的力F, 即取向相同, 则加速运动, 类比于速度的导数加速度为正;如果施加一个反方向的力F, 即取向相反, 则减速运动, 类比于速度的导数加速度为负.

3、Hessian矩阵:

实际上,Hessian矩阵是梯度向量g(x)对自变量x的Jacobian矩阵:

图像算法:梯度vs Jacobian矩阵vs Hessian矩阵

在数学中, 海森矩阵(Hessian matrix或Hessian)是一个自变量为向量的实值函数的二阶偏导数组成的方块矩阵。海森矩阵被应用于牛顿法解决的大规模优化问题.

海森矩阵在牛顿法中的应用

一般来说, 牛顿法主要应用在两个方面, 1, 求方程的根; 2, 最优化.

1),求解方程

并不是所有的方程都有求根公式, 或者求根公式很复杂, 导致求解困难. 利用牛顿法, 可以迭代求解.

原理是利用泰勒公式, 在x0处展开, 且展开到一阶, 即f(x)=f(x0)+(xx0)f(x0)

求解方程f(x)=0, 即f(x0)+(xx0)f(x0)=0, 求解x=x1=x0f(x0)/f(x0), 因为这是利用泰勒公式的一阶展开, f(x)=f(x0)+(xx0)f(x0)处并不是完全相等, 而是近似相等, 这里求得的x1并不能让f(x)=0, 只能说f(x1)的值比f(x0)更接近f(x)=0, 于是乎, 迭代求解的想法就很自然了, 可以进而推出xn+1=xnf(xn)/f(xn), 通过迭代, 这个式子必然在f(x)=0的时候收敛. 整个过程如下图:

2),最优化

在最优化的问题中, 线性最优化至少可以使用单纯形法(或称不动点算法)求解, 但对于非线性优化问题, 牛顿法提供了一种求解的办法. 假设任务是优化一个目标函数f, 求函数f的极大极小问题, 可以转化为求解函数f的导数f=0的问题, 这样求可以把优化问题看成方程求解问题(f=0). 剩下的问题就和第一部分提到的牛顿法求解很相似了.这次为了求解f=0的根, 首先把f(x)在探索点xn处泰勒展开, 展开到2阶形式进行近似:

f(x)=f(xn)+f(xn)(xxn)+f′′(xn)2(xxn)2

然后用f(x)的最小点做为新的探索点xn+1,据此,令:

f(x)=f(xn)+f′′(xn)(xxn)=0

求得出迭代公式:

xn+1=xnf(xn)f′′(xn),n=0,1,...

一般认为牛顿法可以利用到曲线本身的信息, 比梯度下降法更容易收敛(迭代更少次数), 如下图是一个最小化一个目标方程的例子, 红色曲线是利用牛顿法迭代求解, 绿色曲线是利用梯度下降法求解.

在上面讨论的是2维情况, 高维情况的牛顿迭代公式是:

xn+1=xn[Hf(xn)]1f(xn),n0

其中H是hessian矩阵, 定义见上. 

高维情况依然可以用牛顿迭代求解, 但是问题是Hessian矩阵引入的复杂性, 使得牛顿迭代求解的难度大大增加, 但是已经有了解决这个问题的办法就是Quasi-Newton method, 不再直接计算hessian矩阵, 而是每一步的时候使用梯度向量更新hessian矩阵的近似.

  • 2
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值