局部加权回归(Locally Weighted Regression, LWR)
局部加权回归使一种非参数方法(Non-parametric)。在每次预测新样本时会重新训练临近的数据得到新参数值。意思是每次预测数据需要依赖训练训练集,所以每次估计的参数值是不确定的。
局部加权回归优点:
需要预测的数据仅与到训练数据的距离有关,距离越近,关系越大,反之越小;
可以有效避免欠拟合,减小了较远数据的干扰,仅与较近的数据有关。
局部加权回归原理:
图1 局部加权回归原理
对于一般训练集:
参数系统为:
线性模型为:
线性回归损失函数J(θ):
局部加权回归的损失函数J(θ):
其中,τ为波长函数[1],权重之所以采取指数形式是因为这个形式最常见。
[1] 机器学习。
局部加权回归使一种非参数方法(Non-parametric)。在每次预测新样本时会重新训练临近的数据得到新参数值。意思是每次预测数据需要依赖训练训练集,所以每次估计的参数值是不确定的。
局部加权回归优点:
需要预测的数据仅与到训练数据的距离有关,距离越近,关系越大,反之越小;
可以有效避免欠拟合,减小了较远数据的干扰,仅与较近的数据有关。
局部加权回归原理:
![](https://i-blog.csdnimg.cn/blog_migrate/1a25ac96d055fd0af8c4bd24556f1fde.png)
图1 局部加权回归原理
对于一般训练集:
![](https://i-blog.csdnimg.cn/blog_migrate/edecff42aae1082fe78828185588e670.png)
![](https://i-blog.csdnimg.cn/blog_migrate/1bfb4b24ee2f4e9c574f97d912cc5c18.png)
参数系统为:
![](https://i-blog.csdnimg.cn/blog_migrate/3a77265c4962051c2c8833ebf653aa28.png)
线性模型为:
![](https://i-blog.csdnimg.cn/blog_migrate/fa3e8b31b53dbc9aa38b5e3a7a9819ca.png)
线性回归损失函数J(θ):
![](https://i-blog.csdnimg.cn/blog_migrate/502379b639997e3bbb440b28d216122c.png)
局部加权回归的损失函数J(θ):
![](https://i-blog.csdnimg.cn/blog_migrate/354d1b164d57d14a609bd599eb48a1e4.png)
其中,τ为波长函数[1],权重之所以采取指数形式是因为这个形式最常见。
![](https://i-blog.csdnimg.cn/blog_migrate/d4bfb1e00488cbdfa84f6f56d68e1db1.png)
[1] 机器学习。