【ML】Matrix Differentiation

ML的时候经常会用到矩阵求导。

好比Gradient Descent中就有用到。

Cost Function:

$J(\theta) = \frac{1}{2m} (X\theta - y)^{T}(X\theta - y)$.

Gradient Descent Process:

$\theta = \theta - \frac{\alpha}{m}(\theta^{T}X^{T}X -  y^{T}X)^T$.

这个就可以用矩阵求导来导出:

按照分量来说,$\theta_i = \theta_i  - \alpha\frac{\partial J}{\partial\theta_i} $,

这里$\alpha$是learning rate.

这样合起来就有$\theta = \theta - \alpha\left(\frac{\partial J}{\partial\theta}\right)^{T}$.

多元函数的Jacobian是一个行向量。

具体内容网上随便搜Matrix Differentiation就好。

http://www.atmos.washington.edu/~dennis/MatrixCalculus.pdf

不能上传PDF,非常可惜,以后可能链接就失效了。

 

转载于:https://www.cnblogs.com/soya/p/5306302.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值