简介
支持向量机(Support Vector Machine)是一种二分类模型。它的基本模型是定义在特征空间上的间隔最大的线性分类器。SVM的学习算法是求解凸二次规划的最优化算法。
假设在一个二维线性可分的数据集中,图一A所示,我们要找到一条把两组数据分开,这条直线可以是图一B中的直线,也可以是图一C中的直线,或者图一D中的直线,但是哪条直线能够达到最好的泛化能力呢?那就是一个能使两类之间的空间大小最大的一个超平面。
这个超平面在二维平面上看到的就是一条直线,在三维空间中就是一个平面。因此,我们把这个划分数据的决策边界统称为超平面。离这个超平面最近的点就叫做支持向量,点到超平面的距离叫间隔。支持向量机就是要使超平面和支持向量之间的间隔尽可能的大,这样超平面才可以将两类样本准确的分开,而保证间隔尽可能的大就是保证我们的分类器误差尽可能的小,尽可能的健壮。
线性可分SVM
要使得支持向量到超平面的间隔最大化,我们首先定义超平面
h
(
x
)
h(x)
h(x) :
h
(
x
)
=
w
T
x
+
b
w
为
权
重
向
量
,
b
为
偏
置
向
量
h(x) = w^Tx + b \qquad w为权重向量,b为偏置向量
h(x)=wTx+bw为权重向量,b为偏置向量
样本点
x
x
x 到最优超平面的几何间隔为:
r
=
h
(
x
)
∣
∣
w
∣
∣
=
w
T
+
b
∣
∣
w
∣
∣
r = \frac {h(x)} {||w||} = \frac {w^T + b} {||w||}
r=∣∣w∣∣h(x)=∣∣w∣∣wT+b
∣
∣
w
∣
∣
||w||
∣∣w∣∣ 是向量
w
w
w 的内积,即
∣
∣
w
∣
∣
=
w
0
2
+
w
1
2
+
⋯
+
w
n
2
||w|| = \sqrt{w_0^2 + w_1^2 + \dots + w_n^2 }
∣∣w∣∣=w02+w12+⋯+wn2 ,而
h
(
x
)
h(x)
h(x) 表示函数间隔:
r
^
=
h
(
x
)
\hat{r} = h(x)
r^=h(x)
函数间隔
h
(
x
)
h(x)
h(x) 不是一个标准的间隔度量,它不适合用来做最大化的间隔值。因为,一旦超平面固定以后,如果我们人为的放大或缩小
w
w
w 和
b
b
b 值,那这个超平面也会无限的放大或缩小,这将对分类造成严重影响。而几何间隔是函数间隔除以
w
w
w ,当
w
w
w 的值无限放大或缩小时,
∣
∣
w
∣
∣
||w||
∣∣w∣∣ 也会等倍地放大或缩小,而整个
r
r
r 保持不变,它只随着超平面的移动而变化,不受两个参数的影响。因而,我们用几何间隔来做最大化间隔度量。
最大化间隔
在SVM中,我们把几何间隔 r r r 作为最大化间隔,并且采用 − 1 -1 −1 和 + 1 +1 +1 作为类别标签。
如下图所示,在这个 R 2 \mathbb{R}^2 R2 空间中,假设我们已经确定了一个超平面(图中虚线),这个超平面的函数关系式为 h ( x ) = w T x + b = 0 h(x) = w^Tx + b = 0 h(x)=wTx+b=0 。我们想要所有的样本点都尽可能的原理这个超平面,只需保证支持向量的点 x ∗ x^* x∗ 尽可能地远离它。
我们把其中一个支持向量
x
∗
x^*
x∗ 到最优超平面的距离定义为:
r
∗
=
h
(
x
∗
)
∣
∣
w
∣
∣
=
{
1
∣
∣
w
∣
∣
i
f
:
y
∗
=
h
(
x
∗
)
=
+
1
−
1
∣
∣
w
∣
∣
i
f
:
y
∗
=
h
(
x
∗
)
=
−
1
r^* = \frac {h(x^*)} {||w||} = \begin{cases} \frac {1} {||w||}& \quad {if : y* = h(x^*) = +1}\\ \frac {-1} {||w||}& \quad {if : y* = h(x^*) = -1} \end{cases}
r∗=∣∣w∣∣h(x∗)={∣∣w∣∣1∣∣w∣∣−1if:y∗=h(x∗)=+1if:y∗=h(x∗)=−1
这是我们通过把函数间隔
h
(
x
)
h(x)
h(x) 固定为
1
1
1 而得来的。我们可以把这个式子想象成还存在两个平面,这两个平面分别是
w
T
x
s
+
b
=
1
w^Tx_s+b=1
wTxs+b=1 和
w
T
x
s
+
b
=
−
1
w^Tx_s+b=-1
wTxs+b=−1 ,对应上图中的两根实线。这些支持向量
x
s
x_s
xs 就在这两个平面上,这两个平面离最优超平面的距离越大,我们的间隔也就越大。对于其他的点
x
i
x_i
xi 如果满足
w
T
x
i
+
b
>
1
w^Tx_i+b>1
wTxi+b>1 ,则被分为
1
1
1 类,如果满足满足
w
T
x
i
+
b
<
−
1
w^Tx_i+b<-1
wTxi+b<−1 ,则被分为
−
1
-1
−1 类。即有约束条件:
{
w
T
x
i
+
b
⩾
1
y
i
=
+
1
w
T
x
i
+
b
⩽
−
1
y
i
=
−
1
\begin{cases} w^Tx_i+b \geqslant 1 & \quad y_i = +1 \\ w^Tx_i+b \leqslant -1 & \quad y_i = -1 \end{cases}
{wTxi+b⩾1wTxi+b⩽−1yi=+1yi=−1
支持向量到超平面的距离知道后,那么分割的间隔
γ
\gamma
γ 为:
γ
=
2
r
∗
=
2
∣
∣
w
∣
∣
\gamma = 2r^* = \frac {2} {||w||}
γ=2r∗=∣∣w∣∣2
注意到最大化
2
∣
∣
w
∣
∣
\frac {2} {||w||}
∣∣w∣∣2 和最小化
1
2
∣
∣
w
∣
∣
2
\frac {1} {2} ||w||^2
21∣∣w∣∣2 是等价的,于是就得到下面的线性可分支持向量机学习的最优化问题:
{
min
w
,
b
  
1
2
∥
w
∥
2
y
i
(
w
T
x
i
+
b
)
⩾
1
,
(
i
=
1
,
…
,
n
)
\begin{cases} \min_{w, b} \; \frac {1} {2} \|w\|^2 \\ y_i(w^Tx_i+b) \geqslant 1, \quad (i = 1, \dots , n) \end{cases}
{minw,b21∥w∥2yi(wTxi+b)⩾1,(i=1,…,n)
这种式子采用拉格朗日乘数法来求解,即:
L
(
x
)
=
f
(
x
)
+
∑
α
g
(
x
)
L(x) = f(x) + \sum \alpha g(x)
L(x)=f(x)+∑αg(x)
f
(
x
)
f(x)
f(x) 是我们需要最小化的目标函数,
g
(
x
)
g(x)
g(x) 是不等式约束条件,
α
\alpha
α 是对应的约束系数,也称拉格朗日乘子。为了使得拉格朗日函数得到最优解,我们需要加入能使该函数有最优化解法的KKT条件,或者叫最优化条件。即假设存在一点
x
∗
x^*
x∗:
- L ( x ∗ ) L(x^*) L(x∗) 对 x ∗ x^* x∗ 求导为 0 0 0
- α i g i ( x ∗ ) = 0 \alpha_ig_i(x^*)=0 αigi(x∗)=0 对于所有的 i = 1 , … , n i = 1,\dots,n i=1,…,n
这样构造的拉格朗日函数为:
L
(
w
,
b
,
a
)
=
1
2
w
T
w
−
∑
i
=
1
n
a
i
[
y
i
(
w
T
x
i
+
b
)
−
1
]
L(w, b, a) = \frac {1} {2} w^Tw - \sum_{i=1}^n a_i[y_i(w^T x_i + b) - 1]
L(w,b,a)=21wTw−i=1∑nai[yi(wTxi+b)−1]
以上的KKT条件
α
i
[
y
i
(
w
T
x
i
+
b
)
−
1
]
=
0
\alpha_i[y_i(w^Tx_i+b)-1] = 0
αi[yi(wTxi+b)−1]=0 表示,只有距离最优超平面的支持向量
(
x
i
,
y
i
)
(x_i, y_i)
(xi,yi) 对应的
α
\alpha
α 非零,其他所有点集的
α
\alpha
α 等于零。综上所述,引入拉格朗日乘子后,我们的目标变为:
min
w
,
b
max
a
⩾
0
L
(
w
,
b
,
a
)
\min_{w,b}\max_{a \geqslant 0} L(w, b, a)
w,bmina⩾0maxL(w,b,a)
根据拉格朗日对偶性,目标问题的对偶问题是极大极小问题,即先求
L
(
w
,
b
,
α
)
L(w, b, \alpha)
L(w,b,α) 对
w
,
b
w, b
w,b 的极小,再求对
α
\alpha
α 的极大:
max
a
⩾
0
min
w
,
b
L
(
w
,
b
,
α
)
\max_{a \geqslant 0} \min_{w, b} L(w, b, \alpha)
a⩾0maxw,bminL(w,b,α)
用
L
(
w
,
b
,
α
)
L(w, b, \alpha)
L(w,b,α) 对
w
w
w 和
b
b
b 分别求导,并令其等于
0
0
0 :
{
∂
L
(
w
,
b
,
α
)
∂
w
=
0
∂
L
(
w
,
b
,
α
)
∂
b
=
0
\begin{cases} \frac {\partial L(w, b, \alpha)} {\partial w} = 0\\ \frac {\partial L(w, b, \alpha)} {\partial b} = 0 \end{cases}
{∂w∂L(w,b,α)=0∂b∂L(w,b,α)=0
得到:
{
w
=
∑
i
=
1
n
α
i
y
i
x
i
∑
i
=
1
n
α
i
y
i
=
0
\begin{cases} w = \sum_{i=1}^n \alpha_i y_i x_i \\ \sum_{i=1}^n \alpha_i y_i = 0 \end{cases}
{w=∑i=1nαiyixi∑i=1nαiyi=0
把该式代入原来的拉格朗日式子得(推导见《统计学习方法》P103~P105):
L
(
α
)
=
∑
i
=
1
n
α
i
−
1
2
∑
i
=
1
n
∑
j
=
1
n
α
i
α
j
y
i
y
j
x
i
T
x
j
∑
i
=
1
n
α
i
y
i
=
0
,
α
i
⩾
0
(
i
=
1
,
…
,
n
)
L(\alpha) = \sum_{i=1}^n \alpha_i - \frac {1} {2} \sum_{i=1}^n \sum_{j=1}^n \alpha_i \alpha_j y_i y_j x_i^T x_j \\ \sum_{i=1}^n \alpha_i y_i = 0, \quad \alpha_i \geqslant 0 (i = 1, \dots, n)
L(α)=i=1∑nαi−21i=1∑nj=1∑nαiαjyiyjxiTxji=1∑nαiyi=0,αi⩾0(i=1,…,n)
该
L
(
α
)
L(\alpha)
L(α) 函数消去了向量
w
w
w 和向量
b
b
b ,仅剩
α
\alpha
α 这个未知参数,只要我们能够最大化
L
(
α
)
L(\alpha)
L(α),就能求出对应的
α
\alpha
α ,进而求得
w
w
w 和
b
b
b 。对于如何求解
α
\alpha
α,SMO算法给出了完美的解决方案,下一节我们详细讲述。这里我们假设通过SMO算法确定了最优
α
∗
\alpha^*
α∗,则:
w
∗
=
∑
i
=
1
n
α
i
∗
y
i
x
i
w^* = \sum_{i=1}^n \alpha_i^* y_i x_i
w∗=i=1∑nαi∗yixi
最后使用一个正的支持向量
x
∗
x^*
x∗ ,就可以计算出
b
b
b :
b
∗
=
1
−
w
∗
T
x
∗
b^* = 1 - w^{*T} x^*
b∗=1−w∗Tx∗
软间隔
以上的推导都是在完全线性可分的条件下进行的,但是现实世界的许多问题并不都是线性可分的,尤其存在许多复杂的非线性可分的情形。要解决这些线性不可分问题,有如下两种方法:
我们首先讨论软间隔。假设两个类有几个数据点混在一起,这些点对最优超平面形成了噪声干扰,软间隔就是要扩展一下我们的目标函数和KKT条件,允许少量这样的噪声存在。具体地说,就要引入松驰变量
ξ
\xi
ξ 来量化分类器的违规行为:
{
min
w
,
b
  
1
2
∥
w
∥
2
+
C
∑
i
=
1
n
ξ
i
,
C
为
惩
罚
因
子
y
i
(
w
T
x
i
+
b
)
⩾
1
−
ξ
i
,
i
=
1
,
…
,
n
ξ
i
⩾
0
i
=
1
,
…
,
n
\begin{cases} \min_{w, b} \; \frac {1} {2} \|w\|^2 + C\sum_{i=1}^n \xi_i, \quad C为惩罚因子 \\ y_i (w^T x_i + b) \geqslant 1 - \xi_i , \quad i = 1,\dots, n \\ \xi_i \geqslant 0 \quad i = 1, \dots , n \end{cases}
⎩⎪⎨⎪⎧minw,b21∥w∥2+C∑i=1nξi,C为惩罚因子yi(wTxi+b)⩾1−ξi,i=1,…,nξi⩾0i=1,…,n
C C C 和 ξ \xi ξ
如上图所示, ξ \xi ξ 表示噪声样本点到本类样本点边界的偏移距离。 C C C 可被视为一个由用户依据经验或分析选定的“正则化”参数。噪声点在现实世界是天然存在的,如果对于他们不进行容错,那么我们是无论如何也不能把样本分开的。而引入惩罚因子,目的就是,对这类误分的样本进行容错,相当于把点拉到正确一侧:
- 当 C C C 很大时, ξ \xi ξ 趋近于0,表示惩罚很大,容忍度很低。这样错分较少,对样本的拟合性较好,但容易过拟合。
- 当 C C C 很小时, ξ \xi ξ 变大,表示惩罚很小,容忍度高。这样错分较多,对样本的拟合性下降。
对上述不等式同样运用拉格朗日乘子法和KKT条件得(推导见《统计学习方法》P109~P111):
L
(
α
)
=
∑
i
=
1
n
α
i
−
1
2
∑
i
=
1
n
∑
j
=
1
n
α
i
α
j
y
i
y
j
x
i
T
x
j
∑
i
=
1
n
α
i
y
i
=
0
,
0
⩽
α
i
⩽
C
(
i
=
1
,
…
,
n
)
L(\alpha) = \sum_{i=1}^n \alpha_i - \frac {1} {2} \sum_{i=1}^n \sum_{j=1}^n \alpha_i \alpha_j y_i y_j x_i^T x_j \\ \sum_{i=1}^n \alpha_i y_i = 0, \quad 0 \leqslant \alpha_i \leqslant C (i = 1, \dots , n)
L(α)=i=1∑nαi−21i=1∑nj=1∑nαiαjyiyjxiTxji=1∑nαiyi=0,0⩽αi⩽C(i=1,…,n)
可以看到,松驰变量
ξ
\xi
ξ 没有出现在
L
(
α
)
L(\alpha)
L(α) 中,线性可分与不可分的差异体现在约束
α
i
⩾
0
\alpha_i \geqslant 0
αi⩾0 被替换成了约束
0
⩽
α
i
⩽
C
0 \leqslant \alpha_i \leqslant C
0⩽αi⩽C。但是,这两种情况下求解
w
w
w 和
b
b
b 是非常相似的,对于支持向量的定义也都是一致的。在不可分情况下,对应的KKT条件为:
α
i
[
y
i
(
w
T
x
i
+
b
)
−
1
+
ξ
i
]
=
0
,
(
i
=
1
,
…
,
n
)
\alpha_i[y_i(w^Tx_i + b) - 1 + \xi_i] = 0, \quad (i = 1, \dots, n)
αi[yi(wTxi+b)−1+ξi]=0,(i=1,…,n)
SMO算法
1996年, John Platt发布了一个称为SMO的强大算法,用于训练SVM。 SMO表示序列最小优化(Sequential Minimal Optimization)。 Platt的SMO算法是将大优化问题分解为多个小优化问题来求解,这些小优化问题往往很容易求解,并且对它们进行顺序求解的结果与将它们作为整体来求解的结果是完全一致的。
目标
求出一系列 α \alpha α,一旦求出了这些 α \alpha α,就很容易计算出权重向量 w w w 和 b b b,并得到分隔超平面。
工作原理
每次循环中选择两个
α
\alpha
α 进行优化处理。一旦找到一对合适的
α
\alpha
α ,那么就增大其中一个同时减小另一个。这里所谓的“合适”就是指两个
α
\alpha
α 必须要符合一定的条件,条件之一就是这两个
α
\alpha
α 必须要在间隔边界之外,而其第二个条件则是这两个
α
\alpha
α 还没有进行过区间化处理或者不在边界上。
对SMO具体的分析如下,在上一节我们已经得出了:
L
(
α
)
=
∑
i
=
1
n
α
i
−
1
2
∑
i
=
1
n
∑
j
=
1
n
α
i
α
j
y
i
y
j
x
i
T
x
j
∑
i
=
1
n
α
i
y
i
=
0
,
0
⩽
α
i
⩽
C
(
i
=
1
,
…
,
n
)
L(\alpha) = \sum_{i=1}^n \alpha_i - \frac {1} {2} \sum_{i=1}^n \sum_{j=1}^n \alpha_i \alpha_j y_i y_j x_i^T x_j \\ \sum_{i=1}^n \alpha_i y_i = 0, \quad 0 \leqslant \alpha_i \leqslant C (i = 1, \dots , n)
L(α)=i=1∑nαi−21i=1∑nj=1∑nαiαjyiyjxiTxji=1∑nαiyi=0,0⩽αi⩽C(i=1,…,n)
其中
(
x
i
,
y
i
)
(x_i, y_i)
(xi,yi) 已知,
C
C
C 可以人为设定。现在就是要最大化
L
(
α
)
L(\alpha)
L(α) ,求得参数
α
=
[
α
1
,
α
2
,
…
,
α
n
]
\alpha = [\alpha_1, \alpha_2, \dots, \alpha_n]
α=[α1,α2,…,αn]。SMO算法是一次选择两个
α
\alpha
α 进行优化,那我们就选择
α
1
\alpha_1
α1 和
α
2
\alpha_2
α2 ,然后把其它参数
[
α
3
,
α
4
,
…
,
α
n
]
[\alpha_3, \alpha_4, \dots, \alpha_n]
[α3,α4,…,αn] 固定,这样
α
1
,
α
2
\alpha_1, \alpha_2
α1,α2 表示为下面的式子,其中
ζ
\zeta
ζ 为实数值:
α
1
y
1
+
α
2
y
2
=
−
∑
i
=
3
n
α
i
y
i
=
ζ
\alpha_1 y_1 + \alpha_2 y_2 = - \sum_{i=3}^n \alpha_i y_i = \zeta
α1y1+α2y2=−i=3∑nαiyi=ζ
然后用
α
2
\alpha_2
α2 来表示
α
1
\alpha_1
α1 :
α
1
=
ζ
−
α
2
y
2
y
1
\alpha_1 = \frac {\zeta - \alpha_2 y_2} {y_1}
α1=y1ζ−α2y2
把上式代入
L
(
α
)
L(\alpha)
L(α) 中:
L
(
α
)
=
L
(
ζ
−
α
2
y
2
y
1
,
α
2
,
…
,
α
n
)
L(\alpha) = L(\frac {\zeta - \alpha_2 y_2} {y_1}, \alpha_2, \dots, \alpha_n)
L(α)=L(y1ζ−α2y2,α2,…,αn)
省略一系列化解过程后,最后会化解成我们熟悉的一元二次方程,
a
,
b
,
c
a, b, c
a,b,c 均是实数值:
L
(
α
2
)
=
a
α
2
2
+
b
α
2
+
c
L(\alpha_2) = a \alpha_2^2 + b \alpha_2 + c
L(α2)=aα22+bα2+c
最后对
α
2
\alpha_2
α2 求导,解得
α
2
\alpha_2
α2 的具体值,我们暂时把这个实数值叫
α
2
∗
\alpha_2^{*}
α2∗ 。而这个
α
2
∗
\alpha_2^{*}
α2∗ 需要满足一个条件
L
⩽
α
2
∗
⩽
H
L \leqslant \alpha_2^{*}\leqslant H
L⩽α2∗⩽H 。如下图所示:
根据之前的条件
0
⩽
α
i
⩽
C
0 \leqslant \alpha_i \leqslant C
0⩽αi⩽C 和等式
α
1
y
1
+
α
2
y
2
=
ζ
\alpha_1 y_1 + \alpha_2 y_2 = \zeta
α1y1+α2y2=ζ ,当
y
1
y_1
y1 和
y
2
y_2
y2 异号时:
{
L
=
max
(
0
,
α
2
−
α
1
)
H
=
min
(
C
,
C
+
α
2
−
α
1
)
\begin{cases} L &= \max(0, \alpha_2 - \alpha_1) \\ H &= \min(C, C + \alpha_2 - \alpha_1) \end{cases}
{LH=max(0,α2−α1)=min(C,C+α2−α1)
当
y
1
y_1
y1 和
y
2
y_2
y2 同号时:
{
L
=
max
(
0
,
α
2
+
α
1
−
C
)
H
=
min
(
C
,
α
2
+
α
1
)
\begin{cases} L &= \max(0, \alpha_2 + \alpha_1 - C) \\ H &= \min(C, \alpha_2 + \alpha_1) \end{cases}
{LH=max(0,α2+α1−C)=min(C,α2+α1)
最后,满足条件的
α
2
\alpha_2
α2 应该由下面的式子得到,
α
2
∗
∗
\alpha_2^{**}
α2∗∗ 才为最终的值:
α
2
∗
∗
=
{
H
,
α
2
∗
>
H
α
2
∗
,
L
⩽
α
2
∗
⩽
H
L
,
α
2
∗
<
L
\alpha_2^{**} = \begin{cases} H, \quad \alpha_2^* > H \\ \alpha_2^*, \quad L \leqslant \alpha_2^* \leqslant H \\ L, \quad \alpha_2^* < L \end{cases}
α2∗∗=⎩⎪⎨⎪⎧H,α2∗>Hα2∗,L⩽α2∗⩽HL,α2∗<L
求得
α
2
∗
∗
\alpha_2^{**}
α2∗∗ 后就能求得
α
1
∗
∗
\alpha_1^{**}
α1∗∗ 了。然后我们重复地按照最优化
(
α
1
,
α
2
)
(\alpha_1, \alpha_2)
(α1,α2) 的方式继续选择
(
α
3
,
α
4
)
,
(
α
5
,
α
6
)
,
…
,
(
α
n
−
1
,
α
n
)
(\alpha_3, \alpha_4), (\alpha_5, \alpha_6), \dots, (\alpha_{n-1}, \alpha_n)
(α3,α4),(α5,α6),…,(αn−1,αn) 进行优化求解,这样
α
=
[
α
1
,
α
2
,
…
,
α
n
]
\alpha = [\alpha_1, \alpha_2, \dots, \alpha_n]
α=[α1,α2,…,αn] 求解出来后,整个线性划分问题就迎刃而解。
核函数
对于以上几节讲的SVC算法,我们都在线性可分或存在一些噪声点的情况下进行的二分类,但是如果我们存在两组数据,它们的散点图如下图所示,你可以看出这完全是一个非线性不可分的问题,我们无法使用之前讲的SVC算法在这个二维空间中找到一个超平面把这些数据点准确的分开。
解决这个划分问题我们需要引入一个核函数,核函数能够恰当地计算给定数据的内积,将数据从输入空间的非线性转变到特征空间,特征空间具有更高甚至无限的维度,从而使得数据在该空间中被转换成线性可分的。如下图所示,我们把二维平面的一组数据,通过核函数映射到了一个三维空间中,这样,我们的超平面就面成了一个平面(在二维空间中是一条直线),这个平面就可以准确的把数据划分开了。
核函数有Sigmoid核、线性核、多项式核和高斯核等,其中高斯核和多项式核比较常用,两种核函数均可以把低维数据映射到高维数据。高斯核的公式如下,
σ
\sigma
σ 是达到率,即函数值跌落到
0
0
0 的速度参数:
K
(
x
1
,
x
2
)
=
e
−
∥
x
1
−
x
2
∥
2
2
σ
2
K(x_1, x_2) = e^{\frac {- \|x_1 - x_2\|^2} {2 \sigma^2}}
K(x1,x2)=e2σ2−∥x1−x2∥2
多项式核函数的公式如下,
R
R
R 为实数,
d
d
d 为低维空间的维数:
K
(
x
1
,
x
2
)
=
(
⟨
x
1
,
x
2
⟩
+
R
)
d
K(x_1, x_2) = (\langle x_1, x_2 \rangle + R)^d
K(x1,x2)=(⟨x1,x2⟩+R)d
应用于我们的上个例子,我们先定义用
ϕ
:
x
→
H
\phi : x \to H
ϕ:x→H 表示从输入空间
x
⊂
R
n
x \subset \mathbb{R}^n
x⊂Rn 到特征空间
H
H
H 的一个非线性变换。假设在特征空间中的问题是线性可分的,那么对应的最优超平面为:
w
ϕ
T
ϕ
(
x
)
+
b
=
0
w^{\phi T} \phi(x) + b = 0
wϕTϕ(x)+b=0
通过拉格朗日函数我们推导出:
w
ϕ
∗
=
∑
i
=
1
n
α
i
∗
y
i
ϕ
(
x
i
)
w^{\phi *} = \sum_{i=1}^n \alpha_i^* y_i \phi(x_i)
wϕ∗=i=1∑nαi∗yiϕ(xi)
代入上式的特征空间的最优超平面为:
∑
i
=
1
n
α
i
∗
y
i
ϕ
T
(
x
i
)
ϕ
(
x
)
+
b
=
0
\sum_{i=1}^n \alpha_i^* y_i \phi^T(x_i) \phi(x) + b = 0
i=1∑nαi∗yiϕT(xi)ϕ(x)+b=0
这里的
ϕ
T
(
x
i
)
ϕ
(
x
)
\phi^T(x_i) \phi(x)
ϕT(xi)ϕ(x) 表示内积,用核函数代替内积则为:
∑
i
=
1
n
α
i
∗
y
i
K
(
x
i
,
x
)
+
b
=
0
\sum_{i=1}^n \alpha_i^* y_i K(x_i, x) + b = 0
i=1∑nαi∗yiK(xi,x)+b=0
我们的核函数均是内积函数,通过在低维空间对输入向量求内积来映射到高维空间,从而解决在高维空间中数据线性可分的问题。
我们以多项式核来解释一下为什么核函数可以把低维数据映射成高维数据。
假设有两个输入样本,它们均为二维行向量
a
=
[
x
1
,
x
2
]
,
b
=
[
x
3
,
x
4
]
a = [x_1, x_2], b = [x_3, x_4]
a=[x1,x2],b=[x3,x4] ,他们的内积为:
⟨
a
,
b
⟩
=
a
b
T
=
[
x
1
x
2
]
[
x
3
x
4
]
=
x
1
x
3
+
x
2
x
4
\langle a, b \rangle = a b^T = \begin{bmatrix} x_1 & x_2 \end{bmatrix} \begin{bmatrix} x_3 \\ x_4 \end{bmatrix} = x_1 x_3 + x_2 x_4
⟨a,b⟩=abT=[x1x2][x3x4]=x1x3+x2x4
用多项式核函数进行映射,令
R
=
0
,
d
=
2
R=0, d=2
R=0,d=2:
K
(
a
,
b
)
=
(
⟨
x
1
,
x
2
⟩
)
2
=
(
x
1
x
3
+
x
2
x
4
)
2
=
x
1
2
x
3
2
+
2
x
1
x
2
x
3
x
4
+
x
2
2
x
4
2
=
ϕ
(
a
)
ϕ
(
b
)
K(a, b) = (\langle x_1, x_2 \rangle)^2 = (x_1 x_3 + x_2 x_4)^2 = x_1^2 x_3^2 + 2x_1 x_2 x_3 x_4 + x_2^2 x_4^2 = \phi(a) \phi(b)
K(a,b)=(⟨x1,x2⟩)2=(x1x3+x2x4)2=x12x32+2x1x2x3x4+x22x42=ϕ(a)ϕ(b)
按照线性代数中的标准定义,
ϕ
(
a
)
\phi(a)
ϕ(a) 和
ϕ
(
b
)
\phi(b)
ϕ(b) 为映射后的三维行向量和三维列向量,即:
ϕ
(
a
)
=
[
x
1
2
2
x
1
x
2
x
2
2
]
ϕ
(
b
)
=
[
x
3
2
2
x
3
x
4
x
4
2
]
\phi(a) = \begin{bmatrix} x_1^2 & \sqrt 2 x_1 x_2 & x_2^2 \end{bmatrix} \\ \phi(b) = \begin{bmatrix} x_3^2 \\ \sqrt2 x_3 x_4 \\ x_4^2 \end{bmatrix}
ϕ(a)=[x122x1x2x22]ϕ(b)=⎣⎡x322x3x4x42⎦⎤
它们的内积用向量的方式表示则更直观:
ϕ
(
a
)
ϕ
(
b
)
=
[
x
1
2
2
x
1
x
2
x
2
2
]
[
x
3
2
2
x
3
x
4
x
4
2
]
=
x
1
2
x
3
2
+
2
x
1
x
2
x
3
x
4
+
x
2
2
x
4
2
\phi(a) \phi(b) = \begin{bmatrix} x_1^2 & \sqrt 2 x_1 x_2 & x_2^2 \end{bmatrix} \begin{bmatrix} x_3^2 \\ \sqrt2 x_3 x_4 \\ x_4^2 \end{bmatrix} = x_1^2 x_3^2 + 2x_1 x_2 x_3 x_4 + x_2^2 x_4^2
ϕ(a)ϕ(b)=[x122x1x2x22]⎣⎡x322x3x4x42⎦⎤=x12x32+2x1x2x3x4+x22x42
这样我们就把二维数据映射成了三维数据。对于高斯核的映射,会用到泰勒展开式,这个后面再学习了。
损失函数
上面说了那么多,全是从数学角度进行分析推导的。你可能明白了SVM的数学原理,当你进行编程的时候,还是一脸懵逼。因为如果按照上面的求解过程来的话,实在是太复杂了。但是在计算机里,求解SVM却是非常简单的事。我们只需给出SVC的损失函数,然后使用GD算法,就能很好地求出
θ
\theta
θ ,也就是上述的
w
w
w :
J
(
θ
)
=
min
θ
C
[
∑
i
=
1
m
y
(
i
)
c
o
s
t
1
(
θ
T
x
(
i
)
)
+
(
1
−
y
(
i
)
)
c
o
s
t
0
(
θ
T
x
(
i
)
)
]
+
1
2
∑
j
=
1
n
θ
j
2
C
为
惩
罚
因
子
J(\theta) = \min_{\theta} C [ \sum_{i=1}^m y^{(i)} cost_1(\theta^T x^{(i)}) + (1 - y^{(i)})cost_0(\theta^T x^{(i)}) ] + \frac {1} {2} \sum_{j=1}^n \theta_j^2 \quad C 为惩罚因子
J(θ)=θminC[i=1∑my(i)cost1(θTx(i))+(1−y(i))cost0(θTx(i))]+21j=1∑nθj2C为惩罚因子
上述函数分析具体可见 https://github.com/TransformersWsz/Halfrost-Field/blob/master/contents/Machine_Learning/Support_Vector_Machines.ipynb
参考自: