写在前面
此blog是学习李航《统计学习方法》相关章节后的小结与推演过程,强化自身记忆
定义
支持向量机是一种二类分类模型。基本模型是定义在特征空间上的间隔最大的线性分类器。
线性可分支持向量机
给定线性可分训练数据集,通过间隔最大化或等价地求解相应的凸二次规划问题学习得到的分离超平面为
以及相应的决策函数
函数间隔
对于给定的训练数据集
T
T
和超平面 ,定义超平面关于样本点
(xi,yi)
(
x
i
,
y
i
)
的函数间隔为
定义超平面 (w,b) ( w , b ) 关于训练数据集 T T 的函数间隔为超平面 关于 T T 中所有样本点 的函数间隔最小值,即
由于函数间隔 γ γ 随着 w,b w , b 按比例改变,但是超平面未改变,而函数间隔却按比例改变,因此对超平面的法向量 w w 增加约束,规范化后使 ,这使得 (xi,yi) ( x i , y i ) 关于同一个超平面的距离是确定的,即此距离为几何距离
几何间隔
对于给定的训练数据集
T
T
和超平面 ,定义超平面
(w,b)
(
w
,
b
)
关于样本点
(xi,yi)
(
x
i
,
y
i
)
的几何间隔最小,即
同样,有几何间隔之最小值
故而,二者有如下关系:
间隔最大化
支持向量机学习的基本思想是求解能够正确划分训练数据集并且几何间隔最大的分离超平面
1. 最大间隔分离超平面
求得几何间隔最大的分离超平面,即最大间隔分离超平面,可表示为如下约束最优化问题
由上述几何间隔与函数间隔的关系,上述约束最优化问题可转化为
由于 γ^ γ ^ 与 w,b w , b 按比例变化,因此可直接将 γ^||w|| γ ^ | | w | | 等价为 1||w|| 1 | | w | | ,同时又有最大化 1||w|| 1 | | w | | 与最小化 12||w||2 1 2 | | w | | 2 等价,故而约束最优化问题为:
此时,这是一个凸二次规划问题
2.最大间隔分离超平面的存在唯一性
若训练数据集 T T 线性可分,则可将训练数据集中的样本点完全正确的分开的最大间隔分离超平面存在且唯一
3. 支持向量和间隔边界
在线性可分的情况下,训练数据集的样本点中与分离超平面距离最近的样本点的实例称为支持向量(support vector)。支持向量约束条件式
间隔边界为 2||w|| 2 | | w | |
对偶算法
为了求解线性可分支持向量机的最优化问题,将它最为原始问题,应用拉格朗日对偶性,通过求解对偶问题得到原始问题的最优解。
定义拉格朗日函数
首先了解一下KKT条件:
* 令 L(x) L ( x ) 对 x x 的偏导数均为 0,即
* 等式约束 h(x)=0 h ( x ) = 0
* 不等式约束配合 KKT 乘子有 ∑αg(x)=0 ∑ α g ( x ) = 0 ,其中 g(x)≤0,α≥0 g ( x ) ≤ 0 , α ≥ 0
原始问题为极小极大问题:
其对偶问题为极大极小问题:
1. 先求对 lagrange l a g r a n g e 函数的极小问题,将 L(w,b,α) L ( w , b , α ) 分别对 w,b w , b 求偏导并令其等于 0
得
带入 Lagrange L a g r a n g e 函数,得
2. 求 lagrange l a g r a n g e 函数的极大问题
与之等价的对偶最小化问题即为
线性支持向量机与软间隔最大化
由于线性可分支持向量机对线性不可分数据是不适用的,因此修改硬间隔最大化为软间隔最大化
线性不可分意味着某些样本点
(xi,yi)
(
x
i
,
y
i
)
无法满足函数间隔大于等于1的约束条件。因此引入松弛变量
ξi≥0
ξ
i
≥
0
,是函数间隔加上松弛变量大于等于1,因此,约束条件转为如下:
对于每个松弛变量 ξi ξ i 支付一个代价 ξi ξ i ,目标函数则为:
此处 C>0 C > 0 为惩罚参数,
此时线性不可分的线性支持向量机的学习问题变为凸二次规划问题:
定义 lagrange l a g r a n g e 函数:
将原始 lagrange l a g r a n g e 函数的极小极大问题转化为对偶问题的极大极小问题
同样,根据KKT约束,有条件如下
求解 minw,b,ξL(w,b,ξ,α,β) m i n w , b , ξ L ( w , b , ξ , α , β ) 得
由于 βi≥0 β i ≥ 0 ,故而 C=αi+βi C = α i + β i 转化为 0≤αi≤C 0 ≤ α i ≤ C
最终可求得判别式
分析此时点到分离超平面的集合距离
其中 ξi||w|| ξ i | | w | | 为点到间隔边界的距离。
分析最优解 α∗ α ∗