最小二乘法:求回归直线方程

最小二乘法:使离差平方和  (i=1~n)  ∑(yi-yi')  最小的方法

结论:设回归方程为y'=bx+a;解得

回归直线方程:在一组具有相关关系的变量与数据的(x,y)间,最能体现x,y关系的直线(一条尽可能接近所有数据点的直线)

设回归方程为y'=bx+a;

要使直线最拟合,则使(i=1~n)  ∑(yi-yi') 最小,但yi-yi'可能为负,无法正确反映整体数据的切合程度,所以用平方,使得∑(yi-yi')^2最小,由n组xi,yi,最终解得

线性回归中的最小二乘法

线性回归模型

f(x)=w_{1}x_{1}+w_{2}x_{2}+...+w_{d}x_{d}+b = W^{T}X+b

用最小二乘法最小化残差得损失函数为E(W,b)=\sum_{i=1}^{m} (f(x)-y_{i})^{2}=\sum_{i=1}^{m} (W^{T}X+b-y_{i})^{2}

最小化误差:(W^{*},b^{*})=arg min\sum_{i=1}^{m} (W^{T}X+b-y_{i})^{2}

分别对W,b求偏导得:

\frac{\partial E }{\partial W }=2(W\sum_{i=1}^{m}X^{2}+\sum_{i=1}^{m}x_{i}(b-y_{i}))

\frac{\partial E }{\partial b }=2(mb+\sum_{i=1}^{m}(WX-y_{i}))

对于比较简单的函数,我们令偏导=0就可求出最优值W与b:

W=\frac{\sum_{i=1}^{m}y_{i}(X_{i}-\bar{X})}{\sum_{i=1}^{m}X_{i}^{2}-\frac{1}{m}(\sum_{i=1}^{m}X_{i})^{2}}

b=\frac{1}{m}\sum_{i=1}^{m}(y_{i}-WX_{i})

其中\bar{x}=\frac{1}{m}\sum_{i=1}^{m}X_{i}

但对于像下图这样有多个最优解的情况,我们用梯度下降法一步步找最优值,避免陷入局部最优解的情况,且计算量小很多。


W=W-\alpha \frac{\partial E}{\partial W}

b=b-\alpha \frac{\partial E}{\partial b} 

多元线性回归

最终求得:

推导过程

 

 


推导过程可见:https://blog.csdn.net/marsjohn/article/details/54911788

  • 3
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值