CS299学习笔记(5)

局部加权线性回归

欠拟合与过拟合

image_1c62ce1nk5q1fi21km21b3sfq3m.png-52kB

上述三幅图展示了,不同假设函数 h θ ( x ) h_\theta(x) hθ(x)对于同一训练集的拟合情况。

  • 左图:假设函数 h θ ( x ) h_\theta(x) hθ(x) h θ ( x ) = θ 0 + θ 1 x h_\theta(x) = \theta_0 + \theta_1x hθ(x)=θ0+θ1x。很明显可看出,其拟合情况不太理想,我们将这种情况称为欠拟合(under-fitting);
  • 右图:假设函数 h θ ( x ) h_\theta(x) hθ(x) h θ ( x ) = θ 0 + θ 1 x + θ 2 x 2 h_\theta(x) = \theta_0 + \theta_1x + \theta_2x^2 hθ(x)=θ0+θ1x+θ2x2。很明显可看出,其拟合情况太好了,以至于其可能对于一些训练集外的数据点无法做到很好地预测,因此我们将这种情况称为过拟合(over-fitting)。

因此,我们在设计假设函数 h θ ( x ) h_\theta(x) hθ(x)时,不能过分地追求对训练集的拟合程度,只需其拟合程度达到上述图中中间图的拟合程度即可。

*补充:*给定一个假设空间 H H H,一个假设 h h h属于 H H H,如果存在其他的假设 h 1 h_1 h1,使得在训练样例上 h h h的错误率比 h 1 h_1 h1好,但在整个个实例分布上 h 1 h_1 h1的错误率比 h h h小,那么就说假设 h h h出现过拟合的情况。欠拟合的定义与之相似。1

局部加权线性回归算法

局部加权线性回归(Locally Weight Linear Regression,LWR)算法顾名思义为线性回归算法的扩展,当目标假设为线性模型时,因此我们采用线性回归;但如果目标假设不是线性模型,比如一个忽上忽下的的函数,这时用线性模型就拟合的很差。为了解决这个问题,当我们在预测一个点的值时,我们选择和这个点相近的点而不是全部的点做线性回归。基于这个思想,就有了局部加权回归算法。

原始线性回归算法:

  1. 找到参数 θ \theta θ使其最小化 ∑ i ( y ( i ) − θ T x ( i ) ) 2 \sum_i(y^{(i)} - \theta^Tx^{(i)})^2 i(y(i)θTx(i))2
  2. 输出 θ T x \theta^Tx θTx

局部加权线性回归算法:

  1. 找到参数 θ \theta θ使其最小化 ∑ i ω ( i ) ( y ( i ) − θ T x ( i ) ) 2 \sum_i \omega^{(i)}(y^{(i)} - \theta^Tx^{(i)})^2 iω(i)(y(i)θTx(i))2
  2. 输出 θ T x \theta^Tx θTx

两者相互比较可知,在最小化 ∑ i ( y ( i ) − θ T x ( i ) ) 2 \sum_i(y^{(i)} - \theta^Tx^{(i)})^2 i(y(i)θTx(i))2时,局部加权线性回归算法添加了权值 ω ( i ) \omega^{(i)} ω(i)。其作用为根据要预测的点与数据集中的点的距离来为训练集中的点赋予权值,当某点距离待预测点较远时,其权重较小;反之则权重较大。

ω ( i ) = e x p ( − ( x ( i ) − x ) 2 2 τ 2 ) \omega^{(i)} = exp(-\frac{(x^{(i)} - x)^2}{2\tau^2}) ω(i)=exp(2τ2(x(i)x)2)

其中,参数 τ \tau τ称为波长参数,其控制权值随距离增大而下降的速率。

注:若 x x x为向量,则权值 ω ( i ) \omega^{(i)} ω(i)将改写为:

ω ( i ) = e x p ( − ( x ( i ) − x ) T ( x ( i ) − x ) 2 τ 2 ) \omega^{(i)} = exp(-\frac{(x^{(i)} - x)^T(x^{(i)} - x)}{2\tau^2}) ω(i)=exp(2τ2(x(i)x)T(x(i)x))

或者为:

ω ( i ) = e x p ( − ( x ( i ) − x ) T Σ − 1 ( x ( i ) − x ) 2 ) \omega^{(i)} = exp(-\frac{(x^{(i)} - x)^T\Sigma^{-1}(x^{(i)} - x)}{2}) ω(i)=exp(2(x(i)x)TΣ1(x(i)x))

补充:

  • 参数学习算法(Parametric Learning Algorithm)是一类有固定数目参数的用来进行数据拟合的算法,线性回归算法即为此类;
  • 非参数学习算法(Non-Parametric Learning Algorithm)是一类参数数量随训练集增大而增加的算法,局部加权线性回归算法即为此类。

  1. http://blog.csdn.net/stdcoutzyx/article/details/9113681 ↩︎

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值