矩阵求导(转自https://zhuanlan.zhihu.com/p/24709748)

矩阵求导的技术,在统计学、控制论、机器学习等领域有广泛的应用。鉴于我看过的一些资料或言之不详、或繁乱无绪,本文来做个科普,分作两篇,上篇讲标量对矩阵的求导术,下篇讲矩阵对矩阵的求导术。本文使用小写字母x表示标量,粗体小写字母\boldsymbol{x}表示(列)向量,大写字母X表示矩阵。

 

首先来琢磨一下定义,标量f对矩阵X的导数,定义为\frac{\partial f}{\partial X} = \left[\frac{\partial f }{\partial X_{ij}}\right],即f对X逐元素求导排成与X尺寸相同的矩阵。然而,这个定义在计算中并不好用,实用上的原因是在对较复杂的函数难以逐元素求导;哲理上的原因是逐元素求导破坏了整体性。试想,为何要将f看做矩阵X而不是各元素X_{ij}的函数呢?答案是用矩阵运算更整洁。所以在求导时不宜拆开矩阵,而是要找一个从整体出发的算法。

 

为此,我们来回顾,一元微积分中的导数(标量对标量的导数)与微分有联系:df = f'(x)dx;多元微积分中的梯度(标量对向量的导数)也与微分有联系:df = \sum_{i=1}^n \frac{\partial f}{\partial x_i}dx_i = \frac{\partial f}{\partial \boldsymbol{x}}^T d\boldsymbol{x},这里第一个等号是全微分公式,第二个等号表达了梯度与微分的联系:全微分dfn\times1梯度向量\frac{\partial f}{\partial \boldsymbol{x}}n\times1微分向量d\boldsymbol{x}的内积;受此启发,我们将矩阵导数与微分建立联系:df = \sum_{i=1}^m \sum_{j=1}^n \frac{\partial f}{\partial X_{ij}}dX_{ij} = \text{tr}\left(\frac{\partial f}{\partial X}^T dX\right)。其中tr代表迹(trace)是方阵对角线元素之和,满足性质:对尺寸相同的矩阵A,B,\text{tr}(A^TB) = \sum_{i,j}A_{ij}B_{ij},即\text{tr}(A^TB)是矩阵A,B的内积。与梯度相似,这里第一个等号是全微分公式,第二个等号表达了矩阵导数与微分的联系:全微分dfm\times n导数\frac{\partial f}{\partial X}m\times n微分矩阵dX的内积。

 

然后来建立运算法则。回想遇到较复杂的一元函数如f = \log(2+\sin x)e^{\sqrt{x}},我们是如何求导的呢?通常不是从定义开始求极限,而是先建立了初等函数求导和四则运算、复合等法则,再来运用这些法则。故而,我们来创立常用的矩阵微分的运算法则:

  1. 加减法:d(X\pm Y) = dX \pm dY;矩阵乘法:d(XY) = dX Y + X dY;转置:d(X^T) = (dX)^T;迹:d\text{tr}(X) = \text{tr}(dX)
  2. 逆:dX^{-1} = -X^{-1}dX X^{-1}。此式可在XX^{-1}=I两侧求微分来证明。
  3. 行列式:d|X| = \text{tr}(X^{\#}dX),其中X^{\#}表示X的伴随矩阵,在X可逆时又可以写作d|X|= |X|\text{tr}(X^{-1}dX)。此式可用Laplace展开来证明,详见张贤达《矩阵分析与应用》第279页。
  4. 逐元素乘法:d(X\odot Y) = dX\odot Y + X\odot dY\odot表示尺寸相同的矩阵X,Y逐元素相乘。
  5. 逐元素函数:d\sigma(X) = \sigma'(X)\odot dX\sigma(X) = \left[\sigma(X_{ij})\right]是逐元素标量函数运算, \sigma'(X)=[\sigma'(X_{ij})]是逐元素求导数。举个例子,X=[x_1, x_2], d \sin(X) = [\cos x_1 dx_1, \cos x_2 dx_2] = \cos(X)\odot dX

 

我们试图利用矩阵导数与微分的联系df = \text{tr}\left(\frac{\partial f}{\partial X}^T dX\right),在求出左侧的微分df后,该如何写成右侧的形式并得到导数呢?这需要一些迹技巧(trace trick):

  1. 标量套上迹:a = \text{tr}(a)
  2. 转置:\mathrm{tr}(A^T) = \mathrm{tr}(A)
  3. 线性:\text{tr}(A\pm B) = \text{tr}(A)\pm \text{tr}(B)
  4. 矩阵乘法交换:\text{tr}(AB) = \text{tr}(BA),其中AB^T尺寸相同。两侧都等于\sum_{i,j}A_{ij}B_{ji}
  5. 矩阵乘法/逐元素乘法交换:\text{tr}(A^T(B\odot C)) = \text{tr}((A\odot B)^TC),其中A, B, C尺寸相同。两侧都等于\sum_{i,j}A_{ij}B_{ij}C_{ij}

 

观察一下可以断言,若标量函数f是矩阵X经加减乘法、行列式、逆、逐元素函数等运算构成,则使用相应的运算法则对f求微分,再使用迹技巧给df套上迹并将其它项交换至dX左侧,即能得到导数。

 

在建立法则的最后,来谈一谈复合:假设已求得\frac{\partial f}{\partial Y},而Y是X的函数,如何求\frac{\partial f}{\partial X}呢?在微积分中有标量求导的链式法则\frac{\partial f}{\partial x} = \frac{\partial f}{\partial y} \frac{\partial y}{\partial x},但这里我们不能沿用链式法则,因为矩阵对矩阵的导数\frac{\partial Y}{\partial X}截至目前仍是未定义的。于是我们继续追本溯源,链式法则是从何而来?源头仍然是微分。我们直接从微分入手建立复合法则:先写出df = \text{tr}\left(\frac{\partial f}{\partial Y}^T dY\right),再将dY用dX表示出来代入,并使用迹技巧将其他项交换至dX左侧,即可得到\frac{\partial f}{\partial X}

 

接下来演示一些算例。特别提醒要依据已经建立的运算法则来计算,不能随意套用微积分中标量导数的结论,比如认为AX对X的导数为A,这是没有根据、意义不明的。

例1:f = \boldsymbol{a}^T X\boldsymbol{b},求\frac{\partial f}{\partial X}。其中\boldsymbol{a}m×1列向量,Xm\times n矩阵,\boldsymbol{b}n×1列向量,f是标量。

解:先使用矩阵乘法法则求微分:df = \boldsymbol{a}^T dX\boldsymbol{b},再套上迹并做矩阵乘法交换:df = \text{tr}(\boldsymbol{a}^TdX\boldsymbol{b}) = \text{tr}(\boldsymbol{b}\boldsymbol{a}^TdX),注意这里我们根据\text{tr}(AB) = \text{tr}(BA)交换了\boldsymbol{a}^TdX\boldsymbol{b}。对照导数与微分的联系df = \text{tr}\left(\frac{\partial f}{\partial X}^T dX\right),得到\frac{\partial f}{\partial X} = (\boldsymbol{b}\boldsymbol{a}^T)^T= \boldsymbol{a}\boldsymbol{b}^T

注意:这里不能用\frac{\partial f}{\partial X} =\boldsymbol{a}^T \frac{\partial X}{\partial X}\boldsymbol{b}=?,导数与乘常数矩阵的交换是不合法则的运算(而微分是合法的)。有些资料在计算矩阵导数时,会略过求微分这一步,这是逻辑上解释不通的。

 

例2【线性回归】:l = \|X\boldsymbol{w}- \boldsymbol{y}\|^2, 求\boldsymbol{w}的最小二乘估计,即求\frac{\partial l}{\partial \boldsymbol{w}}的零点。其中\boldsymbol{y}m×1列向量,Xm\times n矩阵,\boldsymbol{w}n×1列向量,l是标量。

解:严格来说这是标量对向量的导数,不过可以把向量看做矩阵的特例。先将向量模平方改写成向量与自身的内积:l = (X\boldsymbol{w}- \boldsymbol{y})^T(X\boldsymbol{w}- \boldsymbol{y}),求微分,使用矩阵乘法、转置等法则:dl = (Xd\boldsymbol{w})^T(X\boldsymbol{w}-\boldsymbol{y})+(X\boldsymbol{w}-\boldsymbol{y})^T(Xd\boldsymbol{w}) = 2(X\boldsymbol{w}-\boldsymbol{y})^TXd\boldsymbol{w}。对照导数与微分的联系dl = \frac{\partial l}{\partial \boldsymbol{w}}^Td\boldsymbol{w},得到\frac{\partial l}{\partial \boldsymbol{w}}= (2(X\boldsymbol{w}-\boldsymbol{y})^TX)^T = 2X^T(X\boldsymbol{w}-\boldsymbol{y})\frac{\partial l}{\partial \boldsymbol{w}}的零点即\boldsymbol{w}的最小二乘估计为\boldsymbol{w} = (X^TX)^{-1}X^T\boldsymbol{y}

 

例3【多元logistic回归】:l = -\boldsymbol{y}^T\log\text{softmax}(W\boldsymbol{x}),求\frac{\partial l}{\partial W}。其中\boldsymbol{y}是除一个元素为1外其它元素为0的m×1列向量,Wm\times n矩阵,\boldsymbol{x}n×1列向量,l是标量;\text{softmax}(\boldsymbol{a}) = \frac{\exp(\boldsymbol{a})}{\boldsymbol{1}^T\exp(\boldsymbol{a})},其中\exp(\boldsymbol{a})表示逐元素求指数,\boldsymbol{1}代表全1向量。

解:首先将softmax函数代入并写成l = -\boldsymbol{y}^T \left(\log (\exp(W\boldsymbol{x}))-\boldsymbol{1}\log(\boldsymbol{1}^T\exp(W\boldsymbol{x}))\right) = -\boldsymbol{y}^TW\boldsymbol{x} + \log(\boldsymbol{1}^T\exp(W\boldsymbol{x})),这里要注意逐元素log满足等式\log(\boldsymbol{u}/c) = \log(\boldsymbol{u}) - \boldsymbol{1}\log(c),以及\boldsymbol{y}满足\boldsymbol{y}^T \boldsymbol{1} = 1。求微分,使用矩阵乘法、逐元素函数等法则:dl =- \boldsymbol{y}^TdW\boldsymbol{x}+\frac{\boldsymbol{1}^T\left(\exp(W\boldsymbol{x})\odot(dW\boldsymbol{x})\right)}{\boldsymbol{1}^T\exp(W\boldsymbol{x})}。再套上迹并做交换,注意可化简\boldsymbol{1}^T\left(\exp(W\boldsymbol{x})\odot(dW\boldsymbol{x})\right) = \exp(W\boldsymbol{x})^TdW\boldsymbol{x},这是根据等式\boldsymbol{1}^T (\boldsymbol{u}\odot \boldsymbol{v}) = \boldsymbol{u}^T \boldsymbol{v},故dl = \text{tr}\left(-\boldsymbol{y}^TdW\boldsymbol{x}+\frac{\exp(W\boldsymbol{x})^TdW\boldsymbol{x}}{\boldsymbol{1}^T\exp(W\boldsymbol{x})}\right) =\text{tr}(\boldsymbol{x}(\text{softmax}(W\boldsymbol{x})-\boldsymbol{y})^TdW)。对照导数与微分的联系,得到\frac{\partial l}{\partial W}= (\text{softmax}(W\boldsymbol{x})-\boldsymbol{y})\boldsymbol{x}^T

另解:定义\boldsymbol{a} = W\boldsymbol{x},则l = -\boldsymbol{y}^T\log\text{softmax}(\boldsymbol{a}),先如上求出\frac{\partial l}{\partial \boldsymbol{a}} = \text{softmax}(\boldsymbol{a})-\boldsymbol{y},再利用复合法则:dl = \text{tr}\left(\frac{\partial l}{\partial \boldsymbol{a}}^Td\boldsymbol{a}\right) = \text{tr}\left(\frac{\partial l}{\partial \boldsymbol{a}}^TdW \boldsymbol{x}\right) = \text{tr}\left(\boldsymbol{x}\frac{\partial l}{\partial \boldsymbol{a}}^TdW\right),得到\frac{\partial l}{\partial W}= \frac{\partial l}{\partial\boldsymbol{a}}\boldsymbol{x}^T

 

例4【方差的最大似然估计】:样本\boldsymbol{x}_1,\dots, \boldsymbol{x}_n\sim N(\boldsymbol{\mu}, \Sigma),求方差\Sigma的最大似然估计。写成数学式是:l = \log|\Sigma|+\frac{1}{n}\sum_{i=1}^n(\boldsymbol{x}_i-\boldsymbol{\bar{x}})^T\Sigma^{-1}(\boldsymbol{x}_i-\boldsymbol{\bar{x}}),求\frac{\partial l }{\partial \Sigma}的零点。其中\boldsymbol{x}_im\times 1列向量,\overline{\boldsymbol{x}}=\frac{1}{n}\sum_{i=1}^n \boldsymbol{x}_i是样本均值,\Sigmam\times m对称正定矩阵,l是标量。

解:首先求微分,使用矩阵乘法、行列式、逆等运算法则,第一项是d\log|\Sigma| = |\Sigma|^{-1}d|\Sigma| = \text{tr}(\Sigma^{-1}d\Sigma),第二项是\frac{1}{n}\sum_{i=1}^n(\boldsymbol{x}_i-\boldsymbol{\bar{x}})^Td\Sigma^{-1}(\boldsymbol{x}_i-\boldsymbol{\bar{x}}) = -\frac{1}{n}\sum_{i=1}^n(\boldsymbol{x}_i-\boldsymbol{\bar{x}})^T\Sigma^{-1}d\Sigma\Sigma^{-1}(\boldsymbol{x}_i-\boldsymbol{\bar{x}})。再给第二项套上迹做交换:\text{tr}\left(\frac{1}{n}\sum_{i=1}^n(\boldsymbol{x}_i-\boldsymbol{\bar{x}})^T\Sigma^{-1}d\Sigma\Sigma^{-1}(\boldsymbol{x}_i-\boldsymbol{\bar{x}})\right) = \frac{1}{n}\sum_{i=1}^n\text{tr}\left((\boldsymbol{x}_i-\boldsymbol{\bar{x}})^T\Sigma^{-1}d\Sigma\Sigma^{-1}(\boldsymbol{x}_i-\boldsymbol{\bar{x}})\right)= \frac{1}{n}\sum_{i=1}^n\text{tr}\left(\Sigma^{-1}(\boldsymbol{x}_i-\boldsymbol{\bar{x}})(\boldsymbol{x}_i-\boldsymbol{\bar{x}})^T\Sigma^{-1}d\Sigma\right)=\text{tr}(\Sigma^{-1}S\Sigma^{-1}d\Sigma),其中先交换迹与求和,然后将 \Sigma^{-1}(\boldsymbol{x}_i-\boldsymbol{\bar{x}})交换到左边,最后再交换迹与求和,并定义S = \frac{1}{n}\sum_{i=1}^n(\boldsymbol{x}_i-\boldsymbol{\bar{x}})(\boldsymbol{x}_i-\boldsymbol{\bar{x}})^T为样本方差矩阵。得到dl = \text{tr}\left(\left(\Sigma^{-1}-\Sigma^{-1}S\Sigma^{-1}\right)d\Sigma\right)。对照导数与微分的联系,有\frac{\partial l }{\partial \Sigma}=(\Sigma^{-1}-\Sigma^{-1}S\Sigma^{-1})^T,其零点即\Sigma的最大似然估计为\Sigma = S

 

最后一例留给经典的神经网络。神经网络的求导术是学术史上的重要成果,还有个专门的名字叫做BP算法,我相信如今很多人在初次推导BP算法时也会颇费一番脑筋,事实上使用矩阵求导术来推导并不复杂。为简化起见,我们推导二层神经网络的BP算法。

例5【二层神经网络】:l = -\boldsymbol{y}^T\log\text{softmax}(W_2\sigma(W_1\boldsymbol{x})),求\frac{\partial l}{\partial W_1}\frac{\partial l}{\partial W_2}。其中\boldsymbol{y}是除一个元素为1外其它元素为0的的m×1列向量,W_2m\times p矩阵,W_1p\times n矩阵,\boldsymbol{x}n×1列向量,l是标量;\text{softmax}(\boldsymbol{a}) = \frac{\exp(\boldsymbol{a})}{\boldsymbol{1}^T\exp(\boldsymbol{a})}同例3,\sigma(\cdot)是逐元素sigmoid函数\sigma(a) = \frac{1}{1+\exp(-a)}

解:定义\boldsymbol{a}_1=W_1\boldsymbol{x}\boldsymbol{h}_1 = \sigma(\boldsymbol{a}_1)\boldsymbol{a}_2 = W_2 \boldsymbol{h}_1,则l =-\boldsymbol{y}^T\log\text{softmax}(\boldsymbol{a}_2)。在例3中已求出\frac{\partial l}{\partial \boldsymbol{a}_2} = \text{softmax}(\boldsymbol{a}_2)-\boldsymbol{y}。使用复合法则,注意此处\boldsymbol{h}_1, W_2都是变量:dl = \text{tr}\left(\frac{\partial l}{\partial \boldsymbol{a}_2}^Td\boldsymbol{a}_2\right) = \text{tr}\left(\frac{\partial l}{\partial \boldsymbol{a}_2}^TdW_2 \boldsymbol{h}_1\right) + \text{tr}\left(\frac{\partial l}{\partial \boldsymbol{a}_2}^TW_2 d\boldsymbol{h}_1\right),使用矩阵乘法交换的迹技巧从第一项得到\frac{\partial l}{\partial W_2}= \frac{\partial l}{\partial\boldsymbol{a}_2}\boldsymbol{h}_1^T,从第二项得到\frac{\partial l}{\partial \boldsymbol{h}_1}= W_2^T\frac{\partial l}{\partial\boldsymbol{a}_2}。接下来求\frac{\partial l}{\partial \boldsymbol{a}_1},继续使用复合法则,并利用矩阵乘法和逐元素乘法交换的迹技巧:\text{tr}\left(\frac{\partial l}{\partial\boldsymbol{h}_1}^Td\boldsymbol{h}_1\right) = \text{tr}\left(\frac{\partial l}{\partial\boldsymbol{h}_1}^T(\sigma'(\boldsymbol{a}_1)\odot d\boldsymbol{a}_1)\right) = \text{tr}\left(\left(\frac{\partial l}{\partial\boldsymbol{h}_1}\odot \sigma'(\boldsymbol{a}_1)\right)^Td\boldsymbol{a}_1\right),得到\frac{\partial l}{\partial \boldsymbol{a}_1}= \frac{\partial l}{\partial\boldsymbol{h}_1}\odot\sigma'(\boldsymbol{a}_1)。为求\frac{\partial l}{\partial W_1},再用一次复合法则:\text{tr}\left(\frac{\partial l}{\partial\boldsymbol{a}_1}^Td\boldsymbol{a}_1\right) = \text{tr}\left(\frac{\partial l}{\partial\boldsymbol{a}_1}^TdW_1\boldsymbol{x}\right) = \text{tr}\left(\boldsymbol{x}\frac{\partial l}{\partial\boldsymbol{a}_1}^TdW_1\right),得到\frac{\partial l}{\partial W_1}= \frac{\partial l}{\partial\boldsymbol{a}_1}\boldsymbol{x}^T

 

首先来琢磨一下定义。矩阵对矩阵的导数,需要什么样的定义?第一,矩阵F(p×q)对矩阵X(m×n)的导数应包含所有mnpq个偏导数\frac{\partial F_{kl}}{\partial X_{ij}},从而不损失信息;第二,导数与微分有简明的联系,因为在计算导数和应用中需要这个联系;第三,导数有简明的从整体出发的算法。我们先定义向量\boldsymbol{f}(p×1)对向量\boldsymbol{x}(m×1)的导数\frac{\partial \boldsymbol{f}}{\partial \boldsymbol{x}} = \begin{bmatrix} \frac{\partial f_1}{\partial x_1} & \frac{\partial f_2}{\partial x_1} & \cdots & \frac{\partial f_p}{\partial x_1}\\ \frac{\partial f_1}{\partial x_2} & \frac{\partial f_2}{\partial x_2} & \cdots & \frac{\partial f_p}{\partial x_2}\\ \vdots & \vdots & \ddots & \vdots\\ \frac{\partial f_1}{\partial x_m} & \frac{\partial f_2}{\partial x_m} & \cdots & \frac{\partial f_p}{\partial x_m}\\ \end{bmatrix}(m×p),有d\boldsymbol{f} = \frac{\partial \boldsymbol{f} }{\partial \boldsymbol{x} }^T d\boldsymbol{x};再定义矩阵的(按列优先)向量化\mathrm{vec}(X) = [X_{11}, \ldots, X_{m1}, X_{12}, \ldots, X_{m2}, \ldots, X_{1n}, \ldots, X_{mn}]^T(mn×1),并定义矩阵F对矩阵X的导数\frac{\partial F}{\partial X} = \frac{\partial \mathrm{vec}(F)}{\partial \mathrm{vec}(X)}(mn×pq)。导数与微分有联系\mathrm{vec}(dF) = \frac{\partial F}{\partial X}^T \mathrm{vec}(dX)。几点说明如下:

  1. 按此定义,标量f对矩阵X(m×n)的导数\frac{\partial f}{\partial X}是mn×1向量,与上篇的定义不兼容,不过二者容易相互转换。为避免混淆,用记号\nabla_X f表示上篇定义的m×n矩阵,则有\frac{\partial f}{\partial X}=\mathrm{vec}(\nabla_X f)。虽然本篇的技术可以用于标量对矩阵求导这种特殊情况,但使用上篇中的技术更方便。读者可以通过上篇中的算例试验两种方法的等价转换。
  2. 标量对矩阵的二阶导数,又称Hessian矩阵,定义为\nabla^2_X f = \frac{\partial^2 f}{\partial X^2} = \frac{\partial \nabla_X f}{\partial X}(mn×mn),是对称矩阵。对向量\frac{\partial f}{\partial X}或矩阵\nabla_X f求导都可以得到Hessian矩阵,但从矩阵\nabla_X f出发更方便。
  3. \frac{\partial F}{\partial X} = \frac{\partial\mathrm{vec} (F)}{\partial X} = \frac{\partial F}{\partial \mathrm{vec}(X)} = \frac{\partial\mathrm{vec}(F)}{\partial \mathrm{vec}(X)},求导时矩阵被向量化,弊端是这在一定程度破坏了矩阵的结构,会导致结果变得形式复杂;好处是多元微积分中关于梯度、Hessian矩阵的结论可以沿用过来,只需将矩阵向量化。例如优化问题中,牛顿法的更新\Delta X,满足\mathrm{vec}(\Delta X) = -(\nabla^2_X f)^{-1}\mathrm{vec}(\nabla_X f)
  4. 在资料中,矩阵对矩阵的导数还有其它定义,比如\frac{\partial F}{\partial X} = \left[\frac{\partial F_{kl}}{\partial X}\right](mp×nq),它能兼容上篇中的标量对矩阵导数的定义,但微分与导数的联系(dF等于\frac{\partial F}{\partial X}中每个m×n子块分别与dX做内积)不够简明,不便于计算和应用。

 

然后来建立运算法则。仍然要利用导数与微分的联系\mathrm{vec}(dF) = \frac{\partial F}{\partial X}^T \mathrm{vec}(dX),求微分的方法与上篇相同,而从微分得到导数需要一些向量化的技巧:

  1. 线性:\mathrm{vec}(A+B) = \mathrm{vec}(A) + \mathrm{vec}(B)
  2. 矩阵乘法:\mathrm{vec}(AXB) = (B^T \otimes A) \mathrm{vec}(X),其中\otimes表示Kronecker积,A(m×n)与B(p×q)的Kronecker积是A\otimes B = [A_{ij}B](mp×nq)。此式证明见张贤达《矩阵分析与应用》第107-108页。
  3. 转置:\mathrm{vec}(A^T) = K_{mn}\mathrm{vec}(A),A是m×n矩阵,其中K_{mn}(mn×mn)是交换矩阵(commutation matrix)。
  4. 逐元素乘法:\mathrm{vec}(A\odot X) = \mathrm{diag}(A)\mathrm{vec}(X),其中\mathrm{diag}(A)(mn×mn)是用A的元素(按列优先)排成的对角阵。

 

观察一下可以断言,若矩阵函数F是矩阵X经加减乘法、行列式、逆、逐元素函数等运算构成,则使用相应的运算法则对F求微分,再做向量化并使用技巧将其它项交换至vec(dX)左侧,即能得到导数。

再谈一谈复合:假设已求得\frac{\partial F}{\partial Y},而Y是X的函数,如何求\frac{\partial F}{\partial X}呢?从导数与微分的联系入手,\mathrm{vec}(dF) = \frac{\partial F}{\partial Y}^T\mathrm{vec}(dY) = \frac{\partial F}{\partial Y}^T\frac{\partial Y}{\partial X}^T\mathrm{vec}(dX),可以推出链式法则\frac{\partial F}{\partial X} = \frac{\partial Y}{\partial X}\frac{\partial F}{\partial Y}

 

和标量对矩阵的导数相比,矩阵对矩阵的导数形式更加复杂,从不同角度出发常会得到形式不同的结果。有一些Kronecker积和交换矩阵相关的恒等式,可用来做等价变形:

  1. (A\otimes B)^T = A^T \otimes B^T
  2. \mathrm{vec}(\boldsymbol{ab}^T) = \boldsymbol{b}\otimes\boldsymbol{a}
  3. (A\otimes B)(C\otimes D) = (AC)\otimes (BD)。可以对F = D^TB^TXAC求导来证明,一方面,直接求导得到\frac{\partial F}{\partial X} = (AC) \otimes (BD);另一方面,引入Y = B^T X A,有\frac{\partial F}{\partial Y} = C \otimes D, \frac{\partial Y}{\partial X} = A \otimes B,用链式法则得到\frac{\partial F}{\partial X} = (A\otimes B)(C \otimes D)
  4. K_{mn} = K_{nm}^T, K_{mn}K_{nm} = I
  5. K_{pm}(A\otimes B) K_{nq} = B\otimes A,A是m×n矩阵,B是p×q矩阵。可以对AXB^T做向量化来证明,一方面,\mathrm{vec}(AXB^T) = (B\otimes A)\mathrm{vec}(X);另一方面,\mathrm{vec}(AXB^T) = K_{pm}\mathrm{vec}(BX^TA^T) = K_{pm}(A\otimes B)\mathrm{vec}(X^T) = K_{pm}(A\otimes B) K_{nq}\mathrm{vec}(X)

 

接下来演示一些算例。

例1:F = AX,X是m×n矩阵,求\frac{\partial F}{\partial X}

解:先求微分:dF=AdX,再做向量化,使用矩阵乘法的技巧,注意在dX右侧添加单位阵:\mathrm{vec}(dF) = \mathrm{vec}(AdX) = (I_n\otimes A)\mathrm{vec}(dX),对照导数与微分的联系得到\frac{\partial F}{\partial X} = I_n\otimes A^T

特例:如果X退化为向量, \boldsymbol{f} = A \boldsymbol{x} ,则根据向量的导数与微分的关系 d\boldsymbol{f} = \frac{\partial \boldsymbol{f}}{\partial \boldsymbol{x}}^T d\boldsymbol{x} ,得到 \frac{\partial \boldsymbol{f}}{\partial \boldsymbol{x}} = A^T

 

例2:f = \log |X|,X是n×n矩阵,求\nabla_X f\nabla^2_X f

解:使用上篇中的技术可求得\nabla_X f = X^{-1T}。为求\nabla^2_X f,先求微分:d\nabla_X f = -(X^{-1}dXX^{-1})^T,再做向量化,使用转置和矩阵乘法的技巧\mathrm{vec}(d\nabla_X f)= -K_{nn}\mathrm{vec}(X^{-1}dX X^{-1}) = -K_{nn}(X^{-1T}\otimes X^{-1})\mathrm{vec}(dX),对照导数与微分的联系,得到\nabla^2_X f = -K_{nn}(X^{-1T}\otimes X^{-1}),注意它是对称矩阵。在X是对称矩阵时,可简化为\nabla^2_X f = -X^{-1}\otimes X^{-1}

 

例3:F = A\exp(XB),A是l×m,X是m×n,B是n×p矩阵,exp()为逐元素函数,求\frac{\partial F}{\partial X}

解:先求微分:dF = A(\exp(XB)\odot (dXB)),再做向量化,使用矩阵乘法的技巧:\mathrm{vec}(dF) = (I_p\otimes A)\mathrm{vec}(\exp(XB)\odot (dXB)),再用逐元素乘法的技巧:\mathrm{vec}(dF) = (I_p \otimes A) \mathrm{diag}(\exp(XB))\mathrm{vec}(dXB),再用矩阵乘法的技巧:\mathrm{vec}(dF) = (I_p\otimes A)\mathrm{diag}(\exp(XB))(B^T\otimes I_m)\mathrm{vec}(dX),对照导数与微分的联系得到\frac{\partial F}{\partial X} = (B\otimes I_m)\mathrm{diag}(\exp(XB))(I_p\otimes A^T)

 

例4【一元logistic回归】:l = -y \boldsymbol{x}^T \boldsymbol{w} + \log(1 + \exp(\boldsymbol{x}^T\boldsymbol{w})),求\nabla_\boldsymbol{w} l\nabla^2_\boldsymbol{w} l。其中y是取值0或1的标量,\boldsymbol{x},\boldsymbol{w}是向量。

解:使用上篇中的技术可求得\nabla_\boldsymbol{w} l = \boldsymbol{x}(\sigma(\boldsymbol{x}^T\boldsymbol{w}) - y),其中\sigma(a) = \frac{\exp(a)}{1+\exp(a)} 为sigmoid函数。为求\nabla^2_\boldsymbol{w} l,先求微分:d\nabla_\boldsymbol{w} l = \boldsymbol{x} \sigma'(\boldsymbol{x}^T\boldsymbol{w})\boldsymbol{x}^T d\boldsymbol{w},其中\sigma'(a) = \frac{\exp(a)}{(1+\exp(a))^2}为sigmoid函数的导数,对照导数与微分的联系,得到\nabla_w^2 l = \boldsymbol{x}\sigma'(\boldsymbol{x}^T\boldsymbol{w})\boldsymbol{x}^T

推广:样本(\boldsymbol{x}_1, y_1), \dots, (\boldsymbol{x}_n,y_n)l = \sum_{i=1}^N \left(-y_i \boldsymbol{x}_i^T\boldsymbol{w} + \log(1+\exp(\boldsymbol{x_i}^T\boldsymbol{w}))\right),求\nabla_w l\nabla^2_w l。有两种方法,方法一:先对每个样本求导,然后相加;方法二:定义矩阵X = \begin{bmatrix}\boldsymbol{x}_1^T \\ \vdots \\ \boldsymbol{x}_n^T \end{bmatrix},向量\boldsymbol{y} = \begin{bmatrix}y_1 \\ \vdots \\ y_n\end{bmatrix},将l写成矩阵形式l = -\boldsymbol{y}^T X\boldsymbol{w} + \boldsymbol{1}^T\log(\boldsymbol{1} + \exp(X\boldsymbol{w})),进而可以求得\nabla_\boldsymbol{w} l = X^T(\sigma(X\boldsymbol{w}) - \boldsymbol{y})\nabla_w^2 l = X^T\text{diag}(\sigma'(X\boldsymbol{w}))X

 

例5【多元logistic回归】:l = -\boldsymbol{y}^T\log \text{softmax}(W\boldsymbol{x}) = -\boldsymbol{y}^TW\boldsymbol{x} + \log(\boldsymbol{1}^T\exp(W\boldsymbol{x})),求\nabla_W l\nabla^2_W l

解:上篇例3中已求得\nabla_W l = (\text{softmax}(W\boldsymbol{x})-\boldsymbol{y})\boldsymbol{x}^T。为求\nabla^2_W l,先求微分:定义\boldsymbol{a} = W\boldsymbol{x}d\text{softmax}(\boldsymbol{a}) = \frac{\exp(\boldsymbol{a})\odot d\boldsymbol{a}}{\boldsymbol{1}^T\exp(\boldsymbol{a})} - \frac{\exp(\boldsymbol{a}) (\boldsymbol{1}^T(\exp(\boldsymbol{a})\odot d\boldsymbol{a}))}{(\boldsymbol{1}^T\exp(\boldsymbol{a}))^2},这里需要化简去掉逐元素乘法,第一项中\exp(\boldsymbol{a})\odot d\boldsymbol{a} = \text{diag}(\exp(\boldsymbol{a})) d\boldsymbol{a},第二项中\boldsymbol{1}^T(\exp(\boldsymbol{a})\odot d\boldsymbol{a}) = \exp(\boldsymbol{a})^Td\boldsymbol{a},故有d\text{softmax}(\boldsymbol{a}) = \text{softmax}'(\boldsymbol{a})d\boldsymbol{a},其中\text{softmax}'(\boldsymbol{a}) = \frac{\text{diag}(\exp(\boldsymbol{a}))}{\boldsymbol{1}^T\exp(\boldsymbol{a})} - \frac{\exp(\boldsymbol{a})\exp(\boldsymbol{a})^T}{(\boldsymbol{1}^T\exp(\boldsymbol{a}))^2},代入有d\nabla_W l = \text{softmax}'(\boldsymbol{a})d\boldsymbol{a}\boldsymbol{x}^T = \text{softmax}'(W\boldsymbol{x})dW \boldsymbol{x}\boldsymbol{x}^T,做向量化并使用矩阵乘法的技巧,得到\nabla^2_W l = (\boldsymbol{x}\boldsymbol{x}^T) \otimes \text{softmax}'(W\boldsymbol{x})

 

最后做个总结。我们发展了从整体出发的矩阵求导的技术,导数与微分的联系是计算的枢纽,标量对矩阵的导数与微分的联系是df = \mathrm{tr}(\nabla_X^T f dX),先对f求微分,再使用迹技巧可求得导数,特别地,标量对向量的导数与微分的联系是df = \nabla^T_{\boldsymbol{x}}f d\boldsymbol{x};矩阵对矩阵的导数与微分的联系是\mathrm{vec}(dF) = \frac{\partial F}{\partial X}^T \mathrm{vec}(dX),先对F求微分,再使用向量化的技巧可求得导数,特别地,向量对向量的导数与微分的联系是d\boldsymbol{f} = \frac{\partial \boldsymbol{f}}{\partial \boldsymbol{x}}^Td\boldsymbol{x}

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值