支持向量机(Support Vector Machine,SVM)是一种监督学习算法,主要用于二分类问题,但也可以扩展到多分类问题。SVM的目标是找到一个最优的超平面,将不同类别的样本分开,使得距离超平面最近的样本点(称为支持向量)与超平面的距离最大化。
SVM的数学原理如下:
- 定义超平面:对于二维空间中的数据点,超平面是一条直线,可以用方程w*x + b = 0表示,其中w是法向量,b是偏置项。
- 获取最佳超平面:SVM的目标是找到一个最佳的超平面,使得对于不同类别的样本点,与超平面的距离最大化。具体来说,就是找到一个最大间隔超平面,使得所有样本点与该超平面的距离都大于等于一个常数。
- 核技巧:对于非线性可分的数据,可以通过引入核技巧将其映射到高维空间中,使得原来的样本在高维空间中变得线性可分。
- 拉格朗日乘子法:SVM通过引入拉格朗日乘子来解决约束最优化问题。通过求解拉格朗日函数的极大极小问题,可以得到最优的超平面。
以下是两个使用SVM的例子:
-
人脸识别: 使用SVM进行人脸识别是一种常见的应用。训练集通常包括人脸照片和非人脸照片。通过提取图像的特征向量,并将其作为SVM的输入,可以训练一个分类器来识别人脸。训练完成后,可以将新的图像输入到SVM中,并根据SVM的输出进行分类,判断图像中是否存在人脸。
-
文本分类: SVM也可以用于文本分类任务。在这个例子中,我们可以使用SVM将一组文本文档分类为不同的类别。首先,将文本中的单词转换成特征向量,例如使用TF-IDF(词频-逆文本频率)来表示每个单词的重要性。然后,将这些特征向量输入到SVM中进行训练。训练完成后,可以将新的文本输入到SVM中,根据SVM的输出判断文本所属的类别。
以下是Python中使用Scikit-learn库实现SVM的示例代码:
from sklearn import svm
import numpy as np
# 构造训练数据
X = np.array([[0, 0], [1, 1]])
y = np.array([0, 1])
# 创建SVM分类器
clf = svm.SVC(probability=True)
# 训练模型
clf.fit(X, y)
# 预测新样本
print(clf.predict([[2., 2.]])) # 输出:[1]
# 计算样本属于各类别的概率
print(clf.predict_proba([[2., 2.]])) # 输出:[[0.2 0.8]]
在这个示例中,我们首先构造了一个简单的二维训练数据集,其中包含两个类别。然后,我们创建了一个SVM分类器,并使用fit()方法对训练数据进行训练。最后,我们使用predict()方法预测新的样本所属的类别,并使用predict_proba()方法计算样本属于各类别的概率。