机器学习—局部加权线性回归

介绍之前先提稍微一下线性回归,用最小二乘法等方法,拟合出最适合训练集的一条直线。

我们得到了最小二乘的损失函数为   , 通过求得损失函数的极小值来求得参数。


局部加权线性回归的进行前提必须要有预测值x才可以进行,它的原理是损失函数变为 


的表达式如下:

这里的x就是预测值,所以必须要有预测值才可以求出损失函数,通过求损失函数的极小值来得到参数。与X的分布于正态分布类似,但和正态分布没有一毛钱关系。

图就不画了,说一下   当预测值和训练集很接近时,权值为1;当相隔很远时,权值为0

Γ的值提前也要设置好,这个代表着W(i)上升和下降的速率。

最后通过求得J(Θ)的极小值就可以得到Θ向量。

      缺点很明显了,你想要预测一个值就要求一组Θ向量,当你要预测很多值(数据集很大)时,或者甚至你要预测几乎所有连续的X想得到一条拟合曲线时(微积分一段段线性回归的组合),这TM成本太高,计算太慢了,所以在看清数据集大小的情况下慎重选择算法模型。

PS.通俗一点讲就是利用接近预测值x的训练集点来拟合一条直线,某种意义讲你可以把它想象原来庞大的训练集分割成只有接近x的数据集来进行线性回归,但是这个和真正的局部加权线性回归不一样!记住了。


以下红色为局部线性回归模型,蓝色就是线线性回归,可以看到预测值在红色时比较精确。

当然可以想想看,如果拟合一条二次的曲线(即非线性),在图中的黄色曲线预测效果也是不错的。当然你可以选择1次,2次.....这样的模型去试,看看效果。如果你不想这么做,就可以选择局部线性回归。


额,有时间在上一python代码吧。



评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值