线性支持向量机和核函数
一.线性可分支持向量机存在的问题
有些时候样本中混入了异常点,导致不能线性可分, 如下两种情况:
图一中蓝色异常点的引入导致线性不可分;图二中因为引入了蓝色点,导致超平面由红色视线变成了黑色虚线, 模型泛化能力减弱;所以引入线性可分支持向量机
二.线性支持向量机
2.1 线性分类SVM的软间隔最大化
软间隔: 相对于硬间隔而言,软间隔对样本到超平面的函数距离的要求放松了,之前是一定要大于等于1,现在只需要加上一个大于等于0的松弛变量能大于等于1就可以了;
SVM对训练集里面的每个样本(xi,yi)引入了一个松弛变量ξi≥0,使函数间隔加上松弛变量大于等于1,也就是说:
y i ( w ∙ x i + b ) ≥ 1 − ξ i y_i(w∙x_i+b)≥1−ξ_i yi(w∙xi+b)≥1−ξi
软间隔最大化目标函数:
min w , b 1 2 ∣ ∣ w ∣ ∣ 2 2 + C ∑ i = 1 m ε i \min\limits_{w,b} \frac{1}{2}||w||^{2}_2 + C\sum_{i=1}^{m}\varepsilon_i w,bmin21∣∣w∣∣22+C∑i=1mεi
s.t.
γ ^ i = y i ( w ⋅ x i + b ) ≥ 1 − ε i i = 1 , 2...... , N \hat{\gamma}_i= y_i(w\cdot{x_i} + b) \geq 1-\varepsilon_i \ \ i={1,2......,N} γ^i=yi(w⋅xi+b)≥1−εi i=1,2......,N
ε i ≥ 0 i = 1 , 2...... , N \varepsilon_i \geq0 \ i={1,2......,N} εi≥0 i=1,2......,N
2.2 软间隔最大化目标函数的优化
原始最优化问题
引入拉格朗日乘子后,我们的优化目标变成:
min w , b , ε max α i ≥ 0 , μ i ≥ 0 L ( w , b , ε , α , μ ) \min\limits_{w,b,\varepsilon}\max\limits_{\alpha_i \geq 0, \mu_i\geq 0} L(w,b,\varepsilon,\alpha,\mu) w,b,εminαi≥0,μi≥0maxL(w,b,ε,α,μ)
其对偶问题为极大值极小值问题:
max α i ≥ 0 , μ i ≥ 0 min w , b , ε L ( w , b , ε , α , μ ) \max\limits_{\alpha_i \geq 0, \mu_i\geq 0}\min\limits_{w,b,\varepsilon} L(w,b,\varepsilon,\alpha,\mu) αi≥0,μi≥0maxw,b,εminL(w,b,ε,α,μ)
对偶最优化问题 : 查看详细推导
原始最优化的解与对偶最优化问题解的关系:
2.3 线性分类SVM算法总结
2.4 软间隔最大化时的支持向量
硬间隔支持向量回顾:
α i ∗ ( y i ( w x i + b ) − 1 ) = 0 ; 如 果 α i ∗ > 0 , 则 y i ( w x i + b ) = 1 ; 如 果 α i ∗