一、概述
支持向量机(SVM)是一系列可用于分类、回归和异常值检测的有监督学习方法。
优点:
在高维空间中行之有效。
当维数大于样本数时仍然可用。
在决策函数中只使用训练点的一个子集(称为支持向量),大大节省了内存开销。
用途广泛:决策函数中可以使用不同的核函数。提供了一种通用的核,但是也可以指定自定义的核。
劣势:
如果特征数量远大于样本数量,则表现会比较差。
SVM不直接提供概率估计。这个值通过五折交叉验证计算,代价比较高
二、分类
要在数据集上进行多类别分类,可以使用SVC,NuSVC和LinearSVC这三个类。 SVC和NuSVC两种方法类似,但是接受的参数有细微不同,而且底层的数学原理不一样。另一方面,LinearSVC是对支持向量分类的另一种实现,使用了线性核。注意LinearSVC不接受关键字kernel,因为核被预设为是线性的。其与SVC和NuSVC相比还缺少了一些成员,如support_。
和其它分类器一样,SVC,NuSVC和LinearSVC接受两个数组:大小为[n_samples, n_features]的数组X,包含训练样本;以及大小为[n_samples]的数组y,包含类别标签(以字符串类型或整型存储)。
二分类:
sklearn
sklearn svm
(,sklearn.)
X = [[, ], [, ],[-,-]]
y = [,,]
clf = svm.SVC()
(clf.fit(X, y))
result=clf.predict([[, ],[,-]])
(result)
(clf.support_vectors_)
(clf.support_ )
(clf.n_support_)
输出:
sklern version: 0.18.1
SVC(C=1.0, cache_size=200, class_weight=None, coef0=0.0,
decision_function_shape=None, degree=3, gamma='auto', kernel='rbf',
max_iter=-1, probability=False, random_state=