Kernel ridge regression (KRR) (内核岭回归)
它所学习到的在空间中不同的线性函数是由不同的内核和数据所导致的。对于非线性的内核,它与原始空间中的非线性函数相对应。
由 KernelRidge
学习的模型的形式与支持向量回归( SVR
) 是一样的。但是他们使用不同的损失函数:内核岭回归(KRR)使用 squared error loss (平方误差损失函数)而 support vector regression (支持向量回归)(SVR)使用 -insensitive loss ( ε-不敏感损失 ),两者都使用 l2 regularization (l2 正则化)。与 SVR
相反,拟合 KernelRidge
可以以 closed-form (封闭形式)完成,对于中型数据集通常更快。另一方面,学习的模型是非稀疏的,因此比 SVR 慢, 在预测时间,SVR 学习了:math:epsilon > 0 的稀疏模型。
Kernel ridge regression的函数调用
sklearn.kernel_ridge.
KernelRidge
(alpha=1, kernel=’linear’, gamma=None, degree=3, coef0=1, kernel_params=None)[source]