SVM:支持向量机,是监督的学习模型,常见的分类方法。
监督学习:事先对数据打上标签,机器就知道数据属于哪个分类。
无监督学习:数据没有分类标签
SVM计算就是找到超平面的过程,超平面就是SVM分类器。
分类间隔:极限位置到最优决策面之间的距离
SVM就是求解最大分类间隔的过程。
硬间隔:完全分类准确
软间隔:允许一定量的样本分类错误
非线性SVM:核函数的选择就是影响SVM最大的变量。
核函数:将原有的样本空间通过核函数投射到一个高维的空间中,变得线性可分。
SVM既可以做回归(SVR和LinearSVR),也可以做分类器(SVC和LinearSVC)
LinearSVC:线性分类器,处理线性可分的数据,只能使用线性核函数
SVC:非线性的数据,既可以使用到线性核函数,也能使用到高维的核函数
SVC 的构造函数:model = svm.SVC(kernel=‘rbf’, C=1.0, gamma=‘auto’),这里有三个重要的参数 kernel、C 和 gamma。kernel 代表核函数的选择,它有四种选择,只不过默认是 rbf,即高斯核函数。
linear:线性核函数
poly:多项式核函数
rbf:高斯核函数(默认)
sigmoid:sigmoid 核函数