1,sklearn–svm模型
1, SVM简介与使用流程?
SVM方法建立在统计学VC维和结构风险最小化原则上,既可以用于分类(二/多分类)、
也可用于回归和异常值检测。SVM具有良好的鲁棒性,对未知数据拥有很强的泛化能力,
特别是在数据量较少的情况下,相较其他传统机器学习算法具有更优的性能。
使用SVM作为模型时,通常采用如下流程:
1,对样本数据进行归一化(数据标准化处理 (值 - 平均值)/标准差)
2,应用核函数对样本进行映射(最常采用和核函数是RBF和Linear,在样本线性可分时,
Linear效果要比RBF好)
3,用cross-validation和grid-search对超参数进行优选
4,用最优参数训练得到模型
5,测试
sklearn中支持向量分类主要有三种方法:SVC、NuSVC、LinearSVC,
扩展为三个支持向量回归方法:SVR、NuSVR、LinearSVR。
SVC和NuSVC方法基本一致,唯一区别就是损失函数的度量方式不同(NuSVC中的nu参数和SVC中的C参数);
LinearSVC是实现线性核函数的支持向量分类,没有kernel参数,也缺少一些方法的属性,如support_等。
from sklearn import svm
svm.SVC(C=1.0,
kernel='rbf',
degree=3,
gamma='auto',
coef0=0.0,