机器学习【二】 支持向量机

目录

线性可分定义

支持向量机如何解决线性可分问题

支持向量机的优化问题

 线性不可分情况

 核函数

原问题和对偶问题

如何转化为对偶问题


线性可分定义

        线性可分(Linear Separable):存在一条直线,可以分开⚪和×;

        线性不可分(Nonlinear Separable):不存在一条直线,可以分开⚪和×;

        

         放在三位空间中就变成了一个平面:

        

         由于人眼仅限于三维空间,所以我们需要借助数学来对线性可分和线性不可分给出一个精确的定义。

        同样先以二维做例子:

        需要注意的是,这个w1和w2是人为设定的,如果反一下的话,符号也要反一下。

         我们可以假设有N个训练样本和标签,{(x1,y1),(x2,y2),……,(xn,yn)},其中,若xi属于c1,则yi = + 1,否则yi = -1.

线性可分的严格定义:

        一个训练样本集{(x1,y1),(x2,y2),……,(xn,yn)},在 i = 1~N线性可分,是指存在(w1,w2,b)使得对 i = 1~N,有:

        (1)若 yi = +1,则w1·xi1 + w2·xi2 + b > 0

        (2)若 yi = - 1,则w1·xi1 + w2·xi2 + b < 0

用向量形式作简化:

                                x_{i} = [\bigl(\begin{smallmatrix} x_{i1}\\x_{i2} \end{smallmatrix}\bigr)]^{T}    \omega _{i} = [\bigl(\begin{smallmatrix} \omega_{1}\\\omega_{2} \end{smallmatrix}\bigr)]^{T}

        (1)若y_{i} = + 1,则 \omega ^{T}\cdot x_{i} + b > 0

        (2)若y_{i} = - 1,则 \omega ^{T}\cdot x_{i} + b < 0

支持向量机如何解决线性可分问题

        从前面可以引出一个问题:在无数多个分开各个类别的超平面中,到底哪一个最好呢?

        例如下面三条线,哪一条更好?

         大多人应该都会选择2号线,根据没有免费午餐定理,每一条线的表现应该是一样的。这里就需要考虑训练样本的位置在特征空间上有测量的误差,而2号线对误差的容忍程度最高,也就是容错最大。

        那么接下来就是考虑怎么寻找2号线?

VAPNIK给出的回答是:

        对于任意一条符合条件的线,尽可能地向两侧移动,即移动到上图中的两条虚线位置。此时我们定义这两条虚线碰到的训练样本叫做这个数据集的支持向量,把两条线之间的距离称为间隔(margin),我们所要求的2号线就是间隔最大的两条线的正中间位置的那条。

支持向量机的优化问题

        这里主要讲如何用严格的数学,寻找最优分类超平面的过程,写成一个最优化问题。

        我们假设训练样本集是线性可分的,支持向量机需要寻找的是最大化间隔(margin)的超平面,可以写成如下的形式:

        最小化(Minimize):\frac{1}{2}\cdot \begin{vmatrix} \begin{vmatrix} \omega \end{vmatrix} \end{vmatrix}^{2}

        限制条件: y_{i}(\omega^{T}x_{i} + b ) \geq 1,(i = 1\sim N)

        其中,(x_{i},y_{i}), i = 1\sim N 是已知的,(\omega , b)是待求得,这显然是凸优化(Convex Optimization)问题中的二次规划问题。

下面重点开始解释:

先要讲两个事实:

        事实一:

                \omega^{T}x + b = 0 与 (\alpha \omega^{T})x + (\alpha b) = 0 是同一个超平面。 (\alpha \neq 0)

        事实二:

                一个点 X_{0} 到超平面 \omega^{T}x + b = 0 的距离    d = \frac{\left | \omega^{T}x_{0} + b \right |}{\left \| \omega \right \|}  .

最小化(Minimize):\frac{1}{2}\cdot \begin{vmatrix} \begin{vmatrix} \omega \end{vmatrix} \end{vmatrix}^{2}

          \omega = \begin{bmatrix} \omega_{1}\\ \omega_{2} \\ \vdots \\ \omega_{m} \end{bmatrix}   ,        \begin{vmatrix} \begin{vmatrix} \omega \end{vmatrix} \end{vmatrix}^{2} = \omega_{1}^{2} + \omega_{2}^{2} + ... + \omega_{m}^{2} = \sum _{i = 1} ^{m} \omega_{i}^{2}

        基于上面两个事实,我们可以找到一个\alpha进行缩放 (\omega , b)\rightarrow (\alpha \omega , \alpha b) ,最终使得:

                在支持向量 x_{0} 上有 \left | \omega^{T}x_{0} + b \right | = 1

                而在非支持向量上 \left | \omega^{T}x_{0} + b \right | > 1

                此时 d = \frac{1}{\left \| \omega \right \|},要最大化d,就是要最小化 \left \| \omega \right \|

限制条件: y_{i}(\omega^{T}x_{i} + b ) \geq 1,(i = 1\sim N)

        其中 y_{i} 的作用是协调超平面的作用,使得一边的  (\omega^{T}x + b) > 1,另一边的(\omega^{T}x + b) < 1

 二次规划的定义是:

        (1)目标函数(Objective Function)是二次项。

        (2)限制条件是一次项。

要么无解,要么只有唯一的最小值。

 线性不可分情况

        如果线性不可分,那么上面是无解的,即不存在  \omega 和 b 满足上面的所有N个限制条件。所以我们需要放松限制条件:

        限制条件改写为:    y_{i}(\omega^{T}\varphi (X_{i}) + b) \geq 1 - \delta_{i},(i = 1 \sim N) , 其中 \delta _{i} 为松弛变量。

        改造后的支持向量机优化版本:

                最小化 :\frac{1}{2}\left \| \omega \right \|^{2} + C \sum_{i = 1}^{N} \delta _{i}   或 \frac{1}{2}\left \| \omega \right \|^{2} + C \sum_{i = 1}^{N} \delta _{i}^{2}     

                限制条件: (1)\delta \geq 0. (i = 1 \sim N)

                                   (2)y_{i}(\omega^{T}\varphi (X_{i}) + b) \geq 1 - \delta_{i},(i = 1 \sim N)

        比例因子C 起到了平衡两项的关键作用,是由人为设定的。

        我们把人为事先设定的参数叫做算法的超参数。

        通常会不断变化C的值 => 同时测试算法的识别率 => 选取合适的超参数C  (调参侠出现啦!!)

         支持向量机采用的是将特征空间由低维映射到高维,然后再用线性超平面对数据进行分类。

一个定理:

        假设在一个M维空间上随机取N个训练样本,随机得对每个训练样本赋予标签+1 或 -1,若这些训练样本线性可分得概率为P(M),

则有:当M趋于无穷大时,P(M) = 1.

直观上地感受一下: 当特征空间得维度M增加的时候,带估计参数(\omega,b)的维度也会增加,也就是说整个算法模型的自由度会增加,当然更容易分开低维的时候无法分开的数据集。

 核函数

        这里以具体研究 \varphi (X_{i}) 的形式,来引入核函数的概念。

Vladimir Naumovich Vapnik:我们可以不用知道 \varphi (X) 的具体形式。

         我们定义 K(X_{1},X_{2}) 为核函数。 

        核函数K和映射 \varphi 是一一对应的关系。

K(X_{1},X_{2}) 能写成 \varphi (X_{1})^{T} \cdot \varphi (X_{2}) 的充要条件:

        (1)K(X_{1},X_{2}) = K(X_{2},X_{1}) (交换性)

        (2)\forall C_{i} (i = 1 \sim N), \forall N \sum_{ i= 1}^{N}\sum_{j=1}^{N}C_{i}C_{j}K(X_{i},X_{j}) >= 0 (半正定性)

原问题和对偶问题

原问题的定义:

        最小化: f(\omega)

        限制条件: g_{i}(\omega) <= 0 \, \,\; i = 1 \sim K ,

                           h_{i}(\omega) = 0 \;\;i = 1 \sim m

定义该原问题的对偶问题如下:

        定义函数: L(\omega,\alpha,\beta ) = f(\omega) + \sum_{i = 1}^{K}\alpha_{i}g_{i}(\omega) + \sum_{i = 1}^{K}\beta_{i}h_{i}(\omega) = f(\omega) + \alpha^{T}g(\omega) + \beta^{T}h(\omega)

        其中, \alpha = [\alpha_{1},\alpha_{2},...,\alpha_{K}]^{T},

                   \beta= [\beta_{1},\beta_{2},...,\beta_{M}]^{T},

                   g(\omega)= [g_{1}(\omega),g_{2}(\omega),...,g_{K}(\omega)]^{T},

                   h(\omega)= [h_{1}(\omega),h_{2}(\omega),...,h_{M}(\omega)]^{T},

        在此基础上,定义对偶问题如下:

                最大化: \theta (\alpha,\beta) = inf \;\;L(\omega,\alpha,\beta) ,

                限制条件: \alpha_{i} \geq 0, i = 1 \sim K

综合原问题和对偶问题的定义得到:

定理一:

        如果 \omega^{*} 是原问题的解,(\alpha^{*},\beta^{*}) 是对偶问题的解,则有:

                f(\omega^{*}) \geq \theta (\alpha^{*},\beta^{*})

        我们定义 f(\omega^{*}) - \theta (\alpha^{*},\beta^{*}) 为对偶差距, 显然 ≥ 0.

强对偶定理:

        如果 g(\omega) = A\omega + b,\;\;h(\omega) = C\omega+d, \;\;f(\omega) 为凸函数,则有f(\omega^{*}) =\theta (\alpha^{*},\beta^{*}),即对偶差距为0.

        (也就是说,如果原问题的目标函数是凸函数,限制条件是线性函数,那么对偶差距等于0)

根据定理一推出的不等式:

        若 f(\omega^{*}) = \theta (\alpha^{*},\beta^{*}) ,则定理一中必然能够推出,对于所有的 i = 1 \sim K ,要么 \alpha_{i} = 0 ,要么g_{i}(\omega^{*}) = 0 。这个条件成为KKT条件。

如何转化为对偶问题

 回顾一下。

首先: \delta _{i} \geq 0 , (i = 1 \sim N)  转换成 \delta _{i} \leq 0 , (i = 1 \sim N)

得到:  最小化: \frac{1}{2}\left \| \omega \right \|^{2} - C \sum_{i = 1}^{N} \delta _{i}  或  \frac{1}{2}\left \| \omega \right \|^{2} + C \sum_{i = 1}^{N} \delta _{i}^{2}

             限制条件:(1)\delta _{i} \leq 0 , (i = 1 \sim N)

                               (2)1 + \delta_{i} - y_{i}\omega^{T}\varphi (X_{i}) - y_{i}b \leq 0 \;\;(i = 1 \sim N)

将对偶问题写成如下形式:

        最大化:\theta (\alpha,\beta) = \underset{\omega,\delta_{i},b}{inf}\left \{ \frac{1}{2}\left \| \omega \right \| ^{T} - C\sum_{i = 1}^{N}\beta_{i}\delta _{i} + \sum_{i=1}^{N} \alpha_{i}[1 + \delta _{i} -y_{i}\omega^{T}\varphi (X_{i}) -y_{i}b ] \right \}

        限制条件: (1)\alpha_{i} \geq 0

                           (2)\beta_{i} \geq 0

        

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值