Linear Regression

假设函数:

h_{\theta}(x) = \theta^{T}x

损失函数:

J(\theta) = \frac{1}{2m}{}\sum_{i=1}^m(h_{\theta}(x^{(i)})-y^{(i)})^{2}

正规方程求\theta:(Normal Equation无需迭代,无需选取\alpha值;但是不适合特征数量n > 10000的情况,求逆时间复杂度O(n^{3}))

\theta = (X^{T}X)^{-1}X^{T}y

梯度下降迭代更新\theta:(其中j = 0,1,2......n)

{

            \theta_{j} := \theta_{j} - \alpha\frac{\partial}{\partial\theta_{j}}J(\theta):=\theta_{j}-\alpha\frac{1}{m}\sum_{i=1}^{m}(h_{\theta}(x^{(i)})-y^{(i)})x_{j}^{(i)}

}

梯度下降的矩阵方式:(X为m*(n+1)矩阵,Y为m*1维输出向量)

J(\theta)=\frac{1}{2}(X\theta-Y)^{T}(X\theta-Y)

\theta := \theta-\alpha X^{T}(X\theta-Y)

还有些高级优化算法求\theta,共轭梯度(PCG),BFGS,L-BFGS等,无需手动选取\alpha值,而且收敛速度快。

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值