向量机学习

# 向量机

1. 概述

支持向量机 (support vector machines, SVM) 是一种二类分类模型,基本模型是定义在特征空间上的间隔最大的线性分类器。支持向量机还包括核技巧,使其称为实质上的非线性分类器。支持向量机的学习策略就是间隔最大化,可形式化为一个求解凸二次规划 (convex quadratic programming) 的问题,也等价于正则化的合页损失函数的
最小化问题。支持向量机的学习算法是求解凸二次规划的最优化算法。

支持向量机学习方法包括构建由简至繁的模型:

  • 线性可分支持向量机 (linear support vector machine in linearly separable case)
    训练数据可分时,通 过硬间隔最大化 (hard margin maximization),学习一个线性的分类器。
  • 线性支持向量机 (linear support vector machine):
    训练数据近似线性可分时,通过软间隔最大化 (soft margin maximization),也学习一个线性分类器
  • 非线性支持向量机 (non-linear support vector machine):
    当训练数据不可分时,通过使用核技巧 (kernel trick) 以及软间隔最大化,学习非线性支持向量机

当输入空间为欧式空间或离散集合、特征空间为希尔伯特空间时,核函数 (kernel function) 表示将输入从输入空间映射到特征空间,得到的特征向量之间的内积。通过使用核函数,可以学习非线性支持向量机,等价于隐式地在高维的特征空间中学习线性支持向量机。这样的方法被称为核技巧。核方法 (kernel method) 是比支持向量机更为一般的机器学习方法。

2. 线性可分支持向量机与硬间隔最大化

  • 定义
    给定线性可分1训练数据集,通过间隔最大化或等价地求解相应的凸二次规划问题学习得到的分离超平面为:
    \begin{equation}
    \omega^{\ast} \cdot x + b^{\ast} = 0
    \end{equation}
    以及相应的分类决策函数:
    \begin{equation}
    f(x) = sign(\omega^{\ast} \cdot x + b^{\ast})
    \end{equation}
    称为线性可分支持向量机。
  • 说明
  1. 数据集: 假设给定一个特征空间上的训练数据集
    \begin{equation}
    T = {(x_1,y_1), (x_2,y_2), \ldots, (x_N,y_N)},
    \end{equation}
    其中,
    \begin{equation}
    x_i \in \mathcal{X} = {\rm R}^n, y_i \in \mathcal{Y} = {+1, -1}, i=1,2,\ldots,N,
    \end{equation}
    $x_i$ 为第 $i$ 个特征向量,也称为实例,$y_i$ 为 $x_i$ 的类标记,当 $y_i = +1$ 时,称 $x_i$ 为正例;当 $y_i = -1$ 时,称 $x_i$ 为负例。 $(x_i, y_i)$ 为样本点,再假设训练数据集是线性可分的。
  2. 目的: 学习的目标是在特征空间中找到一个分离超平面,能将实例分到不同的类。分离超平面对应于方程
    $\omega \cdot x + b = 0$ ,它由法向量 $\omega$ 与截距 $b$ 决定的,可用 $(\omega, b)$ 表示。分离超平面将特征空间划分为两部分,法向量指向的一侧是正类,另一侧是负类。
  3. 为何需要间隔最大化:一般地,当训练数据集线性可分时,存在无穷个分离超平面可将两类数据正确分开,感知机利用误分类最小的策略,求得分离超平面,不过,此时的解有无穷多个。线性可分支持向量机利用间隔最大化求最优分离超平面,此时,解是唯一的。
  4. 举例:
    如下图 <1> 所示,红色点与蓝色点就是线性可分的,我们需要做的是找到一个最优化的分割方案。线性可分支持向量机就是去找到一种方案,使得分割线与两边的间隔最大。
    supvector_01

2.1 函数间隔与几何间隔

对于数据集 $T = {(x_1,y_1), (x_2,y_2), \ldots, (x_N,y_N)}$ 上的数据点,它到分隔超平面的距离肯定是 关于坐标 $(\vec{x}, \vec{y})$ 的一个函数,考虑到几何上点到面的距离向量必然与超平面的法向量平行,假设
超平面的法向量为 $\vec{\omega}$ ,同时,由于需要考虑平面两侧不同,点到面的距离我们可以人为设置正负,
以便与分类标签 $y_i = {+1, -1}$ 相对应,于是,很自然地我们可以写出点到面的距离的函数如下:
\begin{equation}
\bar{\gamma}_i = y_i(\omega \cdot x_i + b)
\end{equation}
其中, $y_i$ 是数据点的 label,按数据点在分界面的哪一边来定, $b$ 是截距。以上的方式有一个缺点, 当我们对上式中 $\omega$ 和 $b$ 同时乘以一个因子时,由此确定的超平面是不变的,但是由上式定义出的函数 间隔却变为原来的两倍。这意味着,仅靠上式来确定数据点到分离面的距离是不够的。为此,我们可以通过几何上点到面的距离计算公式,来确定数据点到分离面的距离,如下图所示的 $\gamma_i$ ,几何上可以由下式给出:
\begin{equation}
\gamma_i = y_i\left(\frac{\omega}{||\omega||} \cdot x_i + \frac{b}{||\omega||}\right)
\end{equation}
supvector_02

通过上面的讨论,我们有定义如下:

  • 函数间隔
    对于给定的训练数据集 $T$ 和 超平面 $(\omega, b)$ ,定义超平面$(\omega, b)$ 关于样本点 $(x_i, y_i)$ 的函数间隔为:
    \begin{equation}
    \bar{\gamma_i} = y_i(\omega \cdot x_i + b)
    \end{equation}
    定义超平面 $(\omega, b)$ 关于训练数据集 $T$ 的函数间隔为超平面 $(\omega,b)$ 关于 $T$ 中所有样本点 $(x_i, y_i)$ 的函数间隔最小值,即:
    \begin{equation}
    \bar{\gamma} = \min_{i=1,\ldots,N}\bar{\gamma_i}
    \end{equation}
  • 几何间隔
    对于给定的训练数据集 $T$ 和 超平面 $(\omega, b)$ ,定义超平面 $(\omega, b)$ 关于样本点 $(x_i, y_i)$ 的几何间隔为:
    \begin{equation}
    \gamma_i = y_i\left(\frac{\omega}{||\omega||} \cdot x_i + \frac{b}{||\omega||}\right)
    \end{equation}
    定义超平面 $(\omega, b)$ 关于训练数据集 $T$ 的几何间隔为超平面 $(\omega,b)$ 关于 $T$ 中所有样本点 $(x_i, y_i)$ 的几何间隔最小值,即:
    \begin{equation}
    \gamma = \min_{i=1,\ldots,N}\gamma_i
    \end{equation}

2.2 间隔最大化

我们想要从无数的分离超平面中挑选出这么一个超平面,它能把训练集分开,而且能把训练集中最难分开的实例点 (离分离超平面最近的实例) 都有足够确信度将它们分开,并且这样的分离超平面对于未知的新实例,也能有很好的分离效果。

如果将上面我们的要求用数学语言表述,就是:
\begin{eqnarray}
\max_{\omega, b} && \gamma\
s.t. && y_i\left( \frac{\omega}{||\omega||} \cdot x_i + \frac{b}{||\omega||} \right) \geq \gamma,
i = 1,2,\ldots,N
\end{eqnarray}
或者,考虑到函数间隔与几何间隔的关系,变为下式:
\begin{eqnarray}
\max_{\omega, b} && \bar{\gamma}\
s.t. && y_i (\omega \cdot x_i + b) \geq \bar{\gamma}, i = 1,2,\ldots,N
\end{eqnarray}
可以看出,函数间隔的取值 $\bar{\gamma}$ 并不影响最优化问题的解2。因此,为了方便计算,我们可以取 $\bar{\gamma} = 1$ ,并将其带入上式,同时,考虑到最大化 $\frac{1}{||\omega||}$ 与最小化 $\frac{1}{2}||\omega||^2$ 是等价的3,于是,上述最优化问题转换为下面的线性可分向量机学习的最优化
问题:
\begin{eqnarray}
\min_{\omega, b} && \frac{1}{2}||\omega||^2\
s.t. && y_i (\omega \cdot x_i + b) -1 \geq 0, i = 1,2,\ldots,N
\end{eqnarray}

总结上述做法,我们有算法如下:

  • 算法 1:线性可分支持向量机学习算法--最大间隔法
    输入:线性可分训练数据集 $T={(x_1, y_1), (x_2, y_2), \ldots, (x_N, y_N)}$ ,其中, $x_i \in \mathcal{X} = R^n, y_i \in \mathcal{Y}={+1, -1}, i=1,2,\ldots,N$;
    输出:最大间隔分离超平面和分类决策函数。
  1. 构造并求解约束最优化问题:
    \begin{eqnarray}
    \min_{\omega, b} && \frac{1}{2}||\omega||^2\\nonumber
    s.t. && y_i (\omega \cdot x_i + b) -1 \geq 0, i = 1,2,\ldots,N
    \end{eqnarray}
    求得最优解 $\omega^{\ast}, b^{\ast}$
  2. 由此得到分离超平面
    \begin{equation}
    \omega^{\ast} \cdot x + b^{\ast} = 0
    \end{equation}
    和分类决策函数
    \begin{equation}
    f(x) = sign(\omega^{\ast}\cdot{}x+b^{\ast})
    \end{equation}
  3. 可以证明,最大间隔分离超平面存在且唯一

同时,从算法 1 中可以总结出一下几个基本概念的定义:

  • 支持向量
    在线性可分情况下,训练数据集的样本点中与分离超平面距离最近的样本点的实例称为支持向量。即使得最优化条件中不等式等号成立的点,
    \begin{equation}
    y_i(\omega \cdot x_i + b) - 1 = 0
    \end{equation}
    对于 $y_i = +1$ 的正例点,支持向量在超平面 $H1: \omega \cdot x + b = 1$ ;对于 $y_i = -1$ 的负例点,支持向量在超平面 $H2: \omega \cdot x + b = -1$ 。
  • 间隔边界
    如下图所示,粉色线为 $H1$ ,蓝色线为 $H2$ ,两者之间的距离,称为间隔。分离超平面位于两者中央与两者平行。间隔依赖于分离超平面的法向量 $\omega$ ,等于 $\frac{2}{||\omega||}$ , $H1,H2$ 称为间隔边界。
    supvector_03
  • 说明
    在决定分离超平面时,只有支持向量起作用,其他实例点并不起作用,移动或添加其他实例点并不影响我们的求解。由于支持向量再确定分离超平面中起着决定性作用,所以将这类分类模型称为支持向量机。支持向量的个数很少,所以支持向量机由很少的 “重要的” 训练样本决定。

2.3 利用对偶算法求解原始最优化问题

2.3.1 原始问题及其转换

假设 $f(x)$ , $c_i(x)$ , $h_j(x)$ 是定义在 ${\rm R}^n$ 上的连续可微函数,考虑约束最优化问题
\begin{eqnarray}
\min_{x\in{}{\rm R}^n} & &f(x)\\nonumber
s.t. & &c_i(x) \leq 0, i= 1,2,\ldots, k\\nonumber
& &h_j(x) = 0, j = 1,2,\ldots, l
\end{eqnarray}
称此问题为原始最优化问题或者原始问题。为了求解此约束问题,引入广义拉格朗日函数 (generalized Lagrange function)
\begin{equation}
L(x, \alpha, \beta) = f(x) + \sum^{k}{i=1}\alpha_ic_i(x) +
\sum^{l}
{j=1}\beta_jh_j(x)
\end{equation}
这里, $x=(x^{(1)}, x^{(2)}, \ldots, x^{(n)})^T\in{}{\rm R}^n$, $\alpha_i, \beta_j$ 是拉格朗日乘子, $\alpha_i\geq{}0$。考虑 $x$ 的函数:
\begin{equation}
\theta_P(x) = \max_{\alpha,\beta:\alpha_i\geq{}0} L(x,\alpha,\beta)
\end{equation}
这里下标 $P$ 表示原始问题。对于某个给定的 $x$ ,如果 $x$ 违反原始问题的约束条件,即存在某个 $i$ 使得 $c_i(\omega) > 0$ 或存在某个 $j$ 使得 $h_j(\omega) \neq 0$ ,那么就有:
\begin{equation}
\theta_P(x) = \max_{\alpha,\beta:\alpha_i\geq{}0}\left[ f(x) + \sum^{k}{i=1}\alpha_ic_i(x) +
\sum^{l}
{j=1}\beta_jh_j(x)\right] = +\infty
\end{equation}
因为若某个 $i$ 使约束 $c_i(x) > 0$ ,则可令 $\alpha_i\sim{}+\infty$ ;若某个 $j$ 使得 $h_j(x)\neq{}0$,总可令 $\beta_jh_j(x) \sim +infty$ ,而将其他 $\alpha_i,\beta_j$ 取为 0。 因此,如果 $x$ 满足约束条件,那么就有:
\begin{equation}
\theta_p(x) =
\begin{cases}
f(x) &, x \text{满足原始问题约束}\
+\infty &, \text{其他}
\end{cases}
\end{equation}
于是,我们如果考虑极小化问题
\begin{equation}
\min_{x}\theta_P(x) = \min_{x} \max_{\alpha,\beta:\alpha\geq{}0}L(x, \alpha, \beta)
\end{equation}
它是与原始问题等价的问题,这样,我们就可以通过求解上式广义拉格朗日的极小极大问题来求解原始约束最优化问题的解

2.3.2 对偶问题

定义 $\theta_D(x) = \min_{x} L(x, \alpha, \beta)$,然后考虑极大化 $\theta_D(x)$ ,即:
\begin{equation}
\max_{\alpha, \beta: \alpha_i\geq{}0}\theta_D(\alpha, \beta) =
\max_{\alpha, \beta: \alpha_i\geq{}0} \min_{x} L(x, \alpha, \beta)
\end{equation}
问题 $\max_{\alpha, \beta: \alpha_i\geq{}0} \min_{x} L(x, \alpha, \beta)$ 称为广义拉格朗日函数的极大极小问题,可以将广义拉格朗日函数的极大极小问题表示为约束最优化问题:
\begin{eqnarray}
\max_{\alpha,\beta} \theta_D(\alpha, \beta) &=& \max_{\alpha,\beta} \min_{x}L(x,\alpha,\beta)\
\nonumber
s.t. && \alpha_i \geq 0, i = 1,2,\ldots,k
\end{eqnarray}
称为原始问题的对偶问题,定义对偶问题的最优值
\begin{equation}
d^{\ast} = \max_{\alpha,\beta:\alpha_i\geq{}0}\theta_D(\alpha,\beta)
\end{equation}
为对偶问题的值。

2.3.3 原始问题与对偶问题的关系
  • 定理 1:若原始问题和对偶问题都有最优值,则
    \begin{equation}
    d^{\ast} = \max_{\alpha,\beta:\alpha_i\geq{}0}\min_{x}L(x,\alpha,\beta) \leq
    \min_{x}\max_{\alpha,\beta:\alpha_i\geq{}0}L(x,\alpha,\beta) = p^{\ast}
    \end{equation}
  • 推论 1:设 $x^{\ast}$ 和 $\alpha^{\ast}, \beta^{\ast}$ 分别是原始问题和对偶问题的可行解,而且有 $d^{\ast} = p^{\ast}$,则 $x^{\ast}$ 和 $\alpha^{\ast}, \beta^{\ast}$ 分别是原始问题和对偶问 题的最优解。
  • 定理 2:考虑原始问题与对偶问题,假设 $f(x)$ 和 $c_i(x)$ 是凸函数4, $h_j(x)$ 是仿射函数[^5];并且假设不等式约束 $c_i(x)$ 是严格可行的,即存在 $x$ ,对所有 $i$ 有 $c_i(x) < 0$,则存在 $x^{\ast}, \alpha^{\ast}, \beta^{\ast}$ ,使得 $x^{\ast}$ 是原始问题 的解, $\alpha^{\ast}, \beta^{\ast}$ 是对偶问题的解,而且
    \begin{equation}
    p^{\ast} = d^{\ast} = L(x^{\ast}, \alpha^{\ast}, \beta^{\ast})
    \end{equation}
  • 定理 3:对原始问题和对偶问题,假设 $f(x)$ 和 $c_i(x)$ 是凸函数, $h_j(x)$ 是仿射函数,并且不等式 约束 $c_i(x)$ 是严格可行的,则 $x^{\ast}, \alpha^{\ast}, \beta^{\ast}$ 分别是原始问题和对偶问题的解的充分必要条件是 $x^{\ast}, \alpha^{\ast}, \beta^{\ast}$ 必须满足下面的 KKT 条件:
    \begin{eqnarray}
    \nabla_{x}L(x^{\ast}, \alpha^{\ast}, \beta^{\ast}) & = & 0\\nonumber
    \nabla_{\alpha}L(x^{\ast}, \alpha^{\ast}, \beta^{\ast}) & = & 0\\nonumber
    \nabla_{\beta}L(x^{\ast}, \alpha^{\ast}, \beta^{\ast}) & = & 0\\nonumber
    \alpha^{\ast}c_i(x^{\ast}) =0,&& i = 1,2,\ldots,k\\nonumber
    c_i(x^{\ast}) \leq 0,&& i = 1,2,\ldots,k\\nonumber
    \alpha_{i}^{\ast} \geq 0 ,&& i = 1,2,\ldots,k\\nonumber
    h_{j}(x^{\ast}) = 0 ,&& i = 1,2,\ldots,l
    \end{eqnarray}

  1. 线性可分的定义:给定一个数据集 $T = {(x_1,y_1), (x_2,y_2), \ldots, (x_N,y_N)}$ ,其中,$x_i \in \mathcal{X} = {\rm R}^n, y_i \in \mathcal{Y} = {+1, -1}, i=1,2,\ldots,N$,如果存在某个超 平面 S: $\omega \cdot x + b = 0$ 能够将数据集完全正确地划分到超平面的两侧,即对所有 $y_i = +1$ 的实例 $i$ ,有 $\omega \cdot x + b > 0$ ,对所有 $y_i = -1$ 的实例 $i$,有 $\omega \cdot x + b < 0$ , 则称数据集 T 是线性可分数据集 (linear separable data set);否则,称数据集为线性不可分。

  2. 事实上,如果考虑到拉格朗日乘子法的时候,这一点可以更加明显地表现出来。

  3. 最大化 $\frac{1}{|x|}$ 等价于最小化 $|x|$ 等价于最小化 $\frac{1}{2}|x|^2$ 。

  4. 简单从理解上讲, $f^{\prime\prime}(x) \geq 0$ 对应凹函数,$f^{\prime\prime}(x) < 0$ 对应凸函数。

转载于:https://www.cnblogs.com/CuriousBull/p/5414372.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值