线性可分支持向量机
- 给定线性可分训练数据集,通过间隔最大化或等价地求解相应的凸二次规划问题学习得到的分离超平面为
w ∗ x + b ∗ = 0 w^* x + b^* = 0 w∗x+b∗=0以及相应的决策函数 f ( x ) = s i g n ( w ∗ x + b ) f(x) = sign(w^*x+b) f(x)=sign(w∗x+b)称为线性可分支持向量机。 - 支持向量机对应将两类数据正确划分并且间隔最大的直线。
函数间隔
- 给定数据集 T T T和超平面 ( w , b ) (w,b) (w,b),定义超平面 ( w , b ) (w,b) (w,b) 关于样本点 ( x i , y i ) (x_i,y_i) (xi,yi) 的函数间隔为: γ ^ i = γ i ( w x i + b ) \hat{\gamma}_i = \gamma_i(wx_i+b) γ^i=γi(wxi+b)
- 定义超平面关于训练集
T
T
T的函数间隔为所有点中的最小值
γ ^ = m i n i = 1 , . , N γ i ^ \hat{\gamma} = min_{i=1,.,N}\hat{\gamma_i} γ^=mini=1,.,Nγi^ - 函数间隔表示分类预测的正确度以及确信度,但是由于成比例的改变 w 和 b w和b w和b时,函数间隔改变,平面却不变,因此我们必须对 w w w规范化。使得 ∣ ∣ w ∣ ∣ ||w|| ∣∣w∣∣为1。这时函数间隔就变为几何间隔。
几何间隔
-
对于给定训练集 T T T和超平面 ( w , b ) (w,b) (w,b),定义超平面 ( w , b ) (w,b) (w,b)关于样本点 ( x i , y i ) (x_i,y_i) (xi,yi)的几何间隔为
γ i = y i ( w ∣ ∣ w ∣ ∣ x i + b ∣ ∣ w ∣ ∣ ) \gamma_i = y_i(\frac{w}{||w||}x_i + \frac{b}{||w||}) γi=yi(∣∣w∣∣wxi+∣∣w∣∣b) -
同样关于训练集 T T T的几何间隔为所有样本的最小值。
γ = m i n i = 1 , . , N γ i ^ \gamma = min_{i=1,.,N}\hat{\gamma_i} γ=mini=1,.,Nγi^ -
可以看到,几何间隔就是点到平面的距离。
函数间隔与几何间隔之间的关系
γ i = γ i ^ ∣ ∣ w ∣ ∣ , γ = γ ^ ∣ ∣ w ∣ ∣ \gamma_i = \frac{\hat{\gamma_i}}{||w||} , \gamma=\frac{\hat{\gamma}}{||w||} γi=∣∣w∣∣γi^,γ=∣∣w∣∣γ^
间隔最大化
- 当数据集线性可分是,间隔最大化又称为硬间隔最大化。最大化间隔可以考虑下面的约束最优化问题:
- 由函数间隔和几何间隔的关系。相当于优化下列函数间隔。
-由函数间隔 w , b w,b w,b成倍缩放不影响最终平面,因此上式等同于最大化 1 ∣ ∣ w ∣ ∣ \frac{1}{||w||} ∣∣w∣∣1,由于||w||大于零,因此等同于最小化 1 2 ∣ ∣ w ∣ ∣ 2 \frac{1}{2}||w||^2 21∣∣w∣∣2,这样最终优化问题变为了
- 这是凸二次规划问题,通过解此问题,我们可以求得最优的 w ∗ 和 b ∗ w^*和b^* w∗和b∗
算法
- 最大间隔分离超平面是存在且唯一的。
支持向量和间隔边界
- 在线性可分的前提下,训练数据集的样本点中与分离超平面距离最近的样本点的实例称为支持向量。支持向量是是约束条件取等号的点。
- 最后 H 1 , H 2 H_1, H_2 H1,H2之间的距离就成为间隔,值为 2 ∣ ∣ w ∣ ∣ \frac{2}{||w||} ∣∣w∣∣2 , H 1 , H 2 H_1,H_2 H1,H2称为间隔边界。
- 再决定分离超平面过程中,只有支持向量起作用,由于支持向量在分类中起决定性作用,因此将此模型叫做支持向量机,支持向量个数很少,因此支持向量机由很少的重要训练样本决定。
学习的对偶算法
- 未完待续
总结
这一节中,我们了解了
- 什么是支持线性可分支持向量机。它是一种分类模型,主要包含超平面和决策函数。
- 同时,我们也了解了如何求的这一个超平面,这其实就是一个凸二次规划问题。
- 超平面是存在且唯一的。
- 间隔正比于 ∣ ∣ W ∣ ∣ − 1 ||W||^{-1} ∣∣W∣∣−1
- 支持向量是使得约束条件取等号的点,且支持向量机只由这些点决定。