(1)代码解读
scikit-learn 提供了3种支持向量机 (SVM) 的回归器:sklearn.svm.SVR、sklearn.svm.NuSVR和sklearn.svm.LinearSVR:
(a)SVR (Support Vector Regression)
说明:SVR是基于libsvm的支持向量回归的实现。
核函数:可以使用多种核函数,例如线性、多项式、RBF(径向基函数)和sigmoid等。
主要参数:
sklearn.svm.SVR(*, kernel=‘rbf’, degree=3, gamma=‘scale’, coef0=0.0, tol=0.001, C=1.0, epsilon=0.1, shrinking=True, cache_size=200, verbose=False, max_iter=-1)
C: 误差项的惩罚参数。C越大,模型对误差的容忍度越低。
epsilon: ε-不敏感损失函数中的ε。它指定了没有惩罚的训练样本的边界。
kernel: 使用的核函数。例如 ‘linear’, ‘poly’, ‘rbf’, ‘sigmoid’, ‘precomputed’ 或者是一个自定义的函数。
degree: 多项式核函数的度(只在kernel='poly’时使用)。
gamma: ‘rbf’, ‘poly’ 和 ‘sigmoid’ 的核函数系数。
coef0: 多项式和sigmoid核函数的独立项。
shrinking: 是否使用收缩启发式。
其他参数还有tol, cache_size, verbose, max_iter等。
(b)NuSVR
<