【用户指南|监督学习】1.3-内核岭回归

文章目录

内核岭回归(Kernel ridge regression-KRR) 由使用内核方法的岭回归(使用 l2 正则化的最小二乘法)所组成。因此,它所拟合到的在空间中不同的线性函数是由不同的内核和数据所导致的。对于非线性的内核,它与原始空间中的非线性函数相对应。

KernelRidge 学习的模型的形式与支持向量回归(SVR是一样的。但是他们使用不同的损失函数: 内核岭回归(KRR)使用平方误差损失函数(squared error loss) 而支持向量回归(support vector regression)(SVR)使用 ε \varepsilon ε-insensitive loss ( ε \varepsilon ε-不敏感损失 ),两者都使用 l2 正则化。与SVR 相反,拟合 KernelRidge 可以以封闭形式(closed-form) 完成,对于中型数据集通常更快。另一方面,学习的模型是非稀疏的,因此比 SVR 慢。在预测时间内,SVR 拟合的是 ε > 0 \varepsilon>0 ε>0 的稀疏模型。

下图比较了人造数据集上的 KernelRidgeSVR 的区别,它由一个正弦目标函数和每五个数据点产生一个强噪声组成。图中分别绘制了由 KernelRidgeSVR 学习到的回归曲线。两者都使用网格搜索优化了 RBF 内核的复杂性/正则化(complexity/regularization )和带宽(bandwidth)。它们的学习函数(learned functions) 非常相似;但是,拟合 KernelRidge 大约比拟合 SVR 快七倍(都使用网格搜索(grid-search))。然而,由于 SVR 只学习了一个稀疏模型,所以 SVR 预测 10 万个目标值比使用 KernelRidge 快三倍以上。SVR 只使用了大约 1/3 的数据点做为支撑向量。

在这里插入图片描述

下图显示不同大小训练集的 KernelRidgeSVR拟合(fitting)和预测(prediction) 时间。 对于中型训练集(小于 1000 个样本),拟合 KernelRidgeSVR 快;然而,对于更大的训练集 SVR 通常更好。 关于预测时间,由于学习的稀疏解,SVR 对于所有不同大小的训练集都比 KernelRidge 快。 注意,稀疏度和预测时间取决于 SVR 的参数 ε \varepsilon ε C ; ε = 0 C;\varepsilon=0 C;ε=0 将对应于密集模型。

在这里插入图片描述

示例: 内核岭回归与SVR的对比

参考: “Machine Learning: A Probabilistic Perspective” Murphy, K. P. - chapter 14.4.3, pp. 492-493, The MIT Press, 2012

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值