局部加权回归

通常情况下的线性拟合不能很好地预测所有的值,因为它容易导致欠拟合(under fitting),比如数据集是

一个钟形的曲线。而多项式拟合能拟合所有数据,但是在预测新样本的时候又会变得很糟糕,因为它导致数据的

过拟合(overfitting),不符合数据真实的模型。

 

今天来讲一种非参数学习方法,叫做局部加权回归(LWR)。为什么局部加权回归叫做非参数学习方法呢? 首

先参数学习方法是这样一种方法:在训练完成所有数据后得到一系列训练参数,然后根据训练参数来预测新样本

的值,这时不再依赖之前的训练数据了,参数值是确定的。而非参数学习方法是这样一种算法:在预测新样本值

时候每次都会重新训练数据得到新的参数值,也就是说每次预测新样本都会依赖训练数据集合,所以每次得到的

参数值是不确定的。

 

 

接下来,介绍局部加权回归的原理。

 

之前在普通的线性拟合中,我们得到了最小二乘的损失函数为

 

      

 

找到合适的参数使得上述损失函数最小即可。而在局部加权回归中,损失函数变为

 

      

 

其中的表达式如下

 

      

 

上式中参数为新预测的样本特征数据,它是一个向量,参数控制了权值变化的速率,权值有一个性质

 

     (1)如果,则

     (2)如果,则

 

所以,对于离预测样本数据较近的点权值较大,离预测样本数据较远的点权值较小。

 

很明显,局部加权回归在每一次预测新样本时都会重新确定参数,以达到更好的预测效果。当数据规模比较大的

时候计算量很大,学习效率很低。并且局部加权回归也不是一定就是避免underfitting

 

 

  • 1
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值