矩阵求导记录

矩阵求导

在看多元线性回归的闭式解的时候遇到矩阵求导问题,总体来讲矩阵求导与函数求导有极大的相似性,查看wiki后记录下矩阵求导的一些性质,方面日后查看。

1592259-20190723233035619-1744123342.jpg
1592259-20190723233041468-1186816804.jpg
1592259-20190723233045478-223771648.jpg
1592259-20190723233112192-1543873245.jpg

用到比较多的公式如下(分母布局):
\[ \frac{\partial \boldsymbol A\boldsymbol x}{\partial \boldsymbol x}=A^T \]

\[ \frac{\partial \boldsymbol x^T\boldsymbol A}{\partial \boldsymbol x}=A \]

\[ \frac{\partial \boldsymbol u \cdot \boldsymbol v}{\partial \boldsymbol x}=\frac{\partial \boldsymbol u^T\boldsymbol v}{\partial \boldsymbol x}=\frac{\partial \boldsymbol u}{\partial \boldsymbol x}\boldsymbol v+\frac{\partial \boldsymbol v}{\partial \boldsymbol x}\boldsymbol u \]

证明几个公式:

1.\(\cfrac{\partial \boldsymbol x^T\boldsymbol A \boldsymbol x}{\partial \boldsymbol x}=(\boldsymbol A+\boldsymbol A^T)\boldsymbol x\)
\[ \begin{align} \frac{\partial \boldsymbol x^T\boldsymbol A \boldsymbol x}{\partial \boldsymbol x}=&\frac{\partial (\boldsymbol A^T \boldsymbol x)^T \boldsymbol x}{\partial \boldsymbol x}\ \\=&\frac{\partial \boldsymbol A^T \boldsymbol x}{\partial \boldsymbol x}\boldsymbol x+\frac{\partial \boldsymbol x}{\partial \boldsymbol x}\boldsymbol A^T \boldsymbol x\\ =&\boldsymbol A\boldsymbol x+\boldsymbol A^T\boldsymbol x\\ =&(\boldsymbol A+\boldsymbol A^T)\boldsymbol x \end{align} \]
2.$ \cfrac{\partial E_{\hat{\boldsymbol w}}}{\partial \hat{\boldsymbol w}}=2\mathbf{X}^T(\mathbf{X}\hat{\boldsymbol w}-\boldsymbol{y})$
\[ \begin{align} \cfrac{\partial E_{\hat{\boldsymbol w}}}{\partial \hat{\boldsymbol w}}=& \cfrac{\partial \boldsymbol{y}^T\boldsymbol{y}}{\partial \hat{\boldsymbol w}}-\cfrac{\partial \boldsymbol{y}^T\mathbf{X}\hat{\boldsymbol w}}{\partial \hat{\boldsymbol w}}-\cfrac{\partial \hat{\boldsymbol w}^T\mathbf{X}^T\boldsymbol{y}}{\partial \hat{\boldsymbol w}}+\cfrac{\partial \hat{\boldsymbol w}^T\mathbf{X}^T\mathbf{X}\hat{\boldsymbol w}}{\partial \hat{\boldsymbol w}}\\ =&0-(\boldsymbol{y}^T\mathbf{X})^T-\mathbf{X}^T\boldsymbol{y}+(\mathbf{X}^T\mathbf{X}+\mathbf{X}^T\mathbf{X})\hat{\boldsymbol w}\\ =&2\mathbf{X}^T(\mathbf{X}\hat{\boldsymbol w}-\boldsymbol{y}) \end{align} \]

参考文献:
https://en.wikipedia.org/wiki/Matrix_calculus#Scalar-by-vector_identities

转载于:https://www.cnblogs.com/wyb6231266/p/11235204.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值