SVM

基本概念

支持向量机(Support Vector Machine, SVM)的基本模型是在特征空间上找到最佳的分离超平面使得训练集上正负样本间隔最大。SVM是用来解决二分类问题的有监督学习算法,在引入了核方法之后SVM也可以用来解决非线性问题。
一般SVM有下面三种:

  • 硬间隔支持向量机(线性可分支持向量机):当训练数据线性可分时,可通过硬间隔最大化学得一个线性可分支持向量机,即分割过程中不允许犯错。

  • 软间隔支持向量机:当训练数据近似线性可分时,可通过软间隔最大化学得一个线性支持向量机,允许犯错,过渡带之间存在样本。

  • 非线性支持向量机:当训练数据线性不可分时,可通过核方法以及软间隔最大化学得一个非线性支持向量机。

硬间隔支持向量机

给定训练样本集 D = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , … , ( x n , y n ) } D=\{(x_1,y_1),(x_2,y_2),\dots,(x_n,y_n)\} D={(x1,y1),(x2,y2),,(xn,yn)} y i ∈ { + 1 , − 1 } y_i\in\{+1,-1\} yi{+1,1} i i i表示第 i i i个样本, n n n表示样本容量。分类学习最基本的想法就是基于训练集 D D D在特征空间中找到一个最佳划分超平面将正负样本分开,而SVM算法解决的就是如何找到最佳超平面的问题。超平面可通过如下的线性方程来描述:

w T Φ ( x ) + b = 0 (1) w^T\Phi(x)+b=0\tag{1} wTΦ(x)+b=0(1)

其中 w ⃗ \vec{w} w 表示法向量,决定了超平面的方向; b b b表示偏移量,决定了超平面与原点之间的距离, Φ ( x ⃗ ) \Phi(\vec{x}) Φ(x )是某个确定的特征空间转换函数,作用是将X映射到更高的维度,最简单的的情况为: Φ ( x ⃗ ) = x ⃗ \Phi(\vec{x})=\vec{x} Φ(x )=x

对于训练数据集 D D D假设找到了最佳超平面 w ∗ Φ ( x ) + b ∗ = 0 w^*\Phi(x)+b^*=0 wΦ(x)+b=0,定义决策分类函数

f ( x ⃗ ) = s i g n ( w ∗ Φ ( x ) + b ∗ ) (2) f(\vec{x})=sign(w^*\Phi(x)+b^*)\tag{2} f(x )=sign(wΦ(x)+b)(2)

该分类决策函数也称为线性可分支持向量机。
在测试时对于线性可分支持向量机可以用支持向量离划分超平面的距离来表示分类预测的可靠程度,如果支持向量离划分超平面越远,则对该样本的分类越可靠,反之就不那么可靠。
那么,什么样的划分超平面是最佳超平面呢?
对于图1有A、B、C三个超平面,很明显应该选择超平面B,也就是说超平面首先应该能满足将两类样本点分开。

图1
对于图2的A、B、C三个超平面,应该选择超平面C,因为使用超平面C进行划分对支持向量局部扰动的“容忍”度最好,分类的鲁棒性最强,对未见样本的泛化能力最强。

图2
下面以图3中示例进行推导得出最佳超平面。

图3
空间中超平面可记为$(w,b)$,根据点到平面的距离公式,空间中任意点$\vec{x}$到超平面$(\vec{w},b)$的距离可写为:

r = w Φ ( x ) + b ∣ ∣ w ∣ ∣ (3) r=\frac{w\Phi(x)+b}{||w||}\tag{3} r=wwΦ(x)+b(3)

假设超平面 ( w , b ) (w,b) (w,b)能将训练样本正确分类,那么对于正样本一侧的任意一个样本 ( x i , y i ) ∈ D (x_i,y_i)\in{D} (xi,yi)D,需要满足,即 w Φ ( x ) + b > 0 w\Phi(x)+b>0 wΦ(x)+b>0 。在训练的时候我们要求限制条件更严格点,以使最终得到的分类器更健壮,所以我们要求 w T Φ ( x i ) + b > 1 w^T\Phi(x_i)+b>1 wTΦ(xi)+b>1。也可以写为大于其它距离,但都可以通过同比例缩放 w w w b b b来使得使其变为1,因此为计算方便这里直接选择1。同样对于负样本应该有 w T Φ ( x i ) + b < − 1 w^T\Phi(x_i)+b<-1 wTΦ(xi)+b<1 y i = − 1 y_i=-1 yi=1。即:
{ w T Φ ( x i ) + b ≥ + 1 , y i = + 1 w T Φ ( x i ) + b ≤ − 1 , y i = − 1 (4) \begin{cases} w^T\Phi(x_i)+b\geq+1, & y_i=+1 \\ w^T\Phi(x_i)+b\leq-1, & y_i=-1 \end{cases}\tag{4} {wTΦ(xi)+b+1,wTΦ(xi)+b1,yi=+1yi=1(4)

亦即:

y i ( w T ( x i ) + b ) ≥ + 1 (5) y_i(w^T(x_i)+b)\geq+1\tag{5} yi(wT(xi)+b)+1(5)

所以我们就完成了由求距离的问题到优化问题的转变

为了方便计算,简单的做一下变换

拉格朗日对偶问题

该求解问题本身是一个凸优化问题,可以通过开源的优化计算包进行求解,但是这样就无法体现SVM的精髓,我们可以将该凸优化问题通过拉格朗日对偶性来解决。在约束条件下求极值的问题使用拉格朗日乘子法,对每条约束添加拉格朗日乘子 α i ≥ 0 \color{red}{\alpha_i}\geq0 αi0,则该问题的拉格朗日函数可写为:

L ( w , b , α ) = 1 2 ∣ ∣ w ∣ ∣ 2 − ∑ i = 1 n α i ( y i ( w T x i + b ) − 1 ) (6) L(w,b,\alpha)=\frac{1}{2}||w||^2-\sum_{i=1}^{n}{\alpha_i(y_i(w^Tx_i+b)-1)}\tag{6} L(w,b,α)=21w2i=1nαi(yi(wTxi+b)1)(6)

其中 α ⃗ = ( α 1 , α 2 , … , α n ) \vec{\alpha}=(\alpha_1,\alpha_2,\dots,\alpha_n) α =(α1,α2,,αn)分别是对应着各个样本的拉格朗日乘子,然后进行对偶化。

L ( w , b , α ) L(w,b,\alpha) L(w,b,α) w w w b b b求偏导并将偏导数等于零可得:

{ w ⃗ = ∑ i = 1 n α i y i Φ ( x i ) 0 = ∑ i = 1 n α i y i (7) \begin{cases} \vec{w}=\sum_{i=1}^{n}{\alpha_iy_i\Phi(x_i)}\\ 0 = \sum_{i=1}^{n}{\alpha_iy_i} \end{cases}\tag{7} {w =i=1nαiyiΦ(xi)0=i=1nαiyi(7)

然后将上述式子代入拉格朗日方程可得 α \alpha α的表达式

以上过程用一张手写图可概括为:

KKT条件

α \alpha α的表达式中有不等式约束,因此上述过程满足Karush-Kuhn-Tucker(KKT)条件:

对于任意样本 ( x i ⃗ , y i ) (\vec{x_i},y_i) (xi ,yi)总有 α i = 0 \alpha_i=0 αi=0 y i ( w ⃗ T x ⃗ + b ) − 1 = 0 y_i(\vec{w}^T\vec{x}+b)-1=0 yi(w Tx +b)1=0。如果 α i = 0 \alpha_i=0 αi=0则该样本点对求解最佳超平面没有任何影响。当 α i > 0 \alpha_i>0 αi>0时必有 y i ( w ⃗ T x ⃗ + b ) − 1 = 0 y_i(\vec{w}^T\vec{x}+b)-1=0 yi(w Tx +b)1=0,表明对应的样本点在最大间隔边界上,即对应着支持向量。也由此得出了SVM的一个重要性质:训练完成之后,大部分的训练样本都不需要保留,最终的模型仅与支持向量有关

那么接下来我们重点关注支持向量,即上图中画圈的式子始终成立,所以我们可以代入之前求出的w,来算出b的表达式,过程如下:

求解出 w w w b b b之后就可利用

f ( x ) = s i g n ( w T Φ ( x ) + b ) (8) f(x)=sign(w^T\Phi(x)+b)\tag{8} f(x)=sign(wTΦ(x)+b)(8)

进行预测分类了。

示例

软间隔支持向量机

在现实任务中很难找到一个超平面将不同类别的样本完全划分开,即很难找到合适的核函数使得训练样本在特征空间中线性可分。退一步说,即使找到了一个可以使训练集在特征空间中完全分开的核函数,也很难确定这个线性可分的结果是不是由于过拟合导致的。解决该问题的办法是在一定程度上运行SVM在一些样本上出错,为此引入了“软间隔”(soft margin)的概念

具体来说,硬间隔支持向量机要求所有的样本均被最佳超平面正确划分,而软间隔支持向量机允许某些样本点不满足间隔大于等于1的条件 y i ( w ⃗ x i ⃗ + b ) ≥ 1 y_i(\vec{w}\vec{x_i}+b)\geq1 yi(w xi +b)1,当然在最大化间隔的时候也要限制不满足间隔大于等于1的样本的个数使之尽可能的少。于是我们引入一个惩罚系数 C > 0 C>0 C>0,类似于正则化,并对每个样本点 ( x i ⃗ , y i ) (\vec{x_i},y_i) (xi ,yi)引入一个松弛变量(slack variables) ξ ≥ 0 \xi\geq0 ξ0,此时可将硬间隔的目标函数改写为

{ min ⁡ w ⃗ , b ( 1 2 ∣ ∣ w ⃗ ∣ ∣ 2 + C ∑ i = 1 n ξ i ) s . t . y i ( w ⃗ T x i ⃗ + b ) ≥ 1 − ξ i , i = 1 , 2 , … , n ξ i ≥ 0 (9) \begin{cases} \min_{\vec{w},b}(\frac{1}{2}||\vec{w}||^2+C\sum_{i=1}^{n}\xi_i) \\ s.t.\quad y_i(\vec{w}^T\vec{x_i}+b)\geq1-\xi_i \quad ,i=1,2,\dots,n\\ \quad\quad \xi_i\geq0 \end{cases}\tag{9} minw ,b(21w 2+Ci=1nξi)s.t.yi(w Txi +b)1ξi,i=1,2,,nξi0(9)

上式中约束条件改为 y i ( w ⃗ x i ⃗ + b ) ≥ 1 − ξ i y_i(\vec{w}\vec{x_i}+b)\geq1-\xi_i yi(w xi +b)1ξi,表示间隔加上松弛变量大于等于1;优化目标改为 min ⁡ w ⃗ , b ( 1 2 ∣ ∣ w ⃗ ∣ ∣ 2 + C ∑ i = 1 n ξ i ) \min_{\vec{w},b}(\frac{1}{2}||\vec{w}||^2+C\sum_{i=1}^{n}\xi_i) minw ,b(21w 2+Ci=1nξi)表示对每个松弛变量都要有一个代价损失 C ξ i C\xi_i Cξi C C C越大对误分类的惩罚越大、使分类的正确率越高,落至间隔带的数据减小。
式(9)是软间隔支持向量机的原始问题。可以证明 w ⃗ \vec{w} w 的解是唯一的, b b b的解不是唯一的, b b b的解是在一个区间内。假设求解软间隔支持向量机间隔最大化问题得到的最佳超平面是 w ∗ ⃗ x ⃗ + b ∗ = 0 \vec{w^*}\vec{x}+b^*=0 w x +b=0,对应的分类决策函数为

f ( x ⃗ ) = s i g n ( w ∗ ⃗ x ⃗ + b ∗ ) (10) f(\vec{x})=sign(\vec{w^*}\vec{x}+b^*)\tag{10} f(x )=sign(w x +b)(10)

f ( x ⃗ ) f(\vec{x}) f(x )称为软间隔支持向量机。
利用拉格朗日乘子法可得到(9)式的拉格朗日函数

L ( w ⃗ , b , α ⃗ , ξ ⃗ , μ ⃗ ) = 1 2 ∣ ∣ w ⃗ ∣ ∣ 2 + C ∑ i = 1 n ξ i − ∑ i = 1 n α i ( y i ( w ⃗ T x i ⃗ + b ) − 1 + ξ i ) − ∑ i = 1 n μ i ξ i (11) L(\vec{w},b,\vec{\alpha},\vec{\xi},\vec{\mu})=\frac{1}{2}||\vec{w}||^2+C\sum_{i=1}^{n}\xi_i-\sum_{i=1}^{n}\alpha_i(y_i(\vec{w}^T\vec{x_i}+b)-1+\xi_i)-\sum_{i=1}^{n}\mu_i\xi_i\tag{11} L(w ,b,α ,ξ ,μ )=21w 2+Ci=1nξii=1nαi(yi(w Txi +b)1+ξi)i=1nμiξi(11)

其中 α i ≥ 0 \alpha_i\geq0 αi0 μ i ≥ 0 \mu_i\geq0 μi0是拉格朗日乘子。
L ( w ⃗ , b , α ⃗ , ξ ⃗ , μ ⃗ ) L(\vec{w},b,\vec{\alpha},\vec{\xi},\vec{\mu}) L(w ,b,α ,ξ ,μ )分别对 w ⃗ \vec{w} w b b b ξ ⃗ \vec{\xi} ξ 求偏导并将偏导数为零可得:

{ w ⃗ = ∑ i = 1 n α i y i x i ⃗ ∑ i = 1 n α i y i = 0 C = α i + μ i (12) \begin{cases} \vec{w}=\sum_{i=1}^{n}\alpha_iy_i\vec{x_i}\\ \sum_{i=1}^{n}\alpha_iy_i=0\\ C=\alpha_i+\mu_i \end{cases}\tag{12} w =i=1nαiyixi i=1nαiyi=0C=αi+μi(12)

将式(12)带入式(11)然后求关于 α \alpha α的极大值可得:

{ max ⁡ α ⃗ ∑ i = 1 n α i − 1 2 ∑ i = 1 n ∑ j = 1 n α i α j y i y j x i ⃗ T x j ⃗ s . t . ∑ i = 1 n α i y i = 0 , i = 1 , 2 , … , n 0 ≤ α i ≤ C (13) \begin{cases} \max_{\vec\alpha}\sum_{i=1}^{n}\alpha_i-\frac{1}{2}\sum_{i=1}^{n}\sum_{j=1}^{n}\alpha_i\alpha_jy_iy_j\vec{x_i}^T\vec{x_j}\\ s.t. \quad\quad\sum_{i=1}^{n}\alpha_iy_i=0\quad\quad,i=1,2,\dots,n\\ \quad\quad\quad 0\leq\alpha_i\leq C \end{cases}\tag{13} maxα i=1nαi21i=1nj=1nαiαjyiyjxi Txj s.t.i=1nαiyi=0,i=1,2,,n0αiC(13)

对比软间隔支持向量机的对偶问题和硬间隔支持向量机的对偶问题可发现__二者的唯一差别就在于对偶变量的约束不同__,软间隔支持向量机对对偶变量的约束是 0 ≤ α i ≤ C 0 \leq \alpha_i \leq C 0αiC,硬间隔支持向量机对对偶变量的约束是 0 ≤ α i 0\leq\alpha_i 0αi,于是可采用和硬间隔支持向量机相同的解法求解式(13)。类似硬间隔的方法,对于软间隔支持向量机,KKT条件要求:

{ α i ≥ 0 , μ i ≥ 0 y i ( w ⃗ x ⃗ + b ) − 1 + ξ i ≥ 0 α i ( y i ( w ⃗ x ⃗ + b ) − 1 + ξ i ) = 0 ξ i ≥ 0 , μ i ξ i = 0 (14) \begin{cases} \alpha_i\geq0,\mu_i\geq0\\ y_i(\vec{w}\vec{x}+b)-1+\xi_i\geq0\\ \alpha_i(y_i(\vec{w}\vec{x}+b)-1+\xi_i)=0\\ \xi_i\geq0,\mu_i\xi_i=0 \end{cases}\tag{14} αi0,μi0yi(w x +b)1+ξi0αi(yi(w x +b)1+ξi)=0ξi0,μiξi=0(14)

同硬间隔支持向量机类似,对任意训练样本 ( x i ⃗ , y i ) (\vec{x_i},y_i) (xi ,yi),总有 α i = 0 \alpha_i=0 αi=0 y i ( w ⃗ x ⃗ + b − 1 + ξ i ) = 0 y_i(\vec{w}\vec{x}+b-1+\xi_i)=0 yi(w x +b1+ξi)=0,若 α i = 0 \alpha_i=0 αi=0,则该样本不会对最佳决策面有任何影响;若 α i > 0 \alpha_i>0 αi>0则必有 y i ( w ⃗ x ⃗ + b ) = 1 − ξ i y_i(\vec{w}\vec{x}+b)=1-\xi_i yi(w x +b)=1ξi,也就是说该样本是支持向量。由式(12)可知若 α i < C \alpha_i<C αi<C μ i > 0 \mu_i>0 μi>0进而有 ξ i = 0 \xi_i=0 ξi=0,即该样本处在正常范围内,即没有落在间隔带,也没有分类错误;若 α i = C \alpha_i=C αi=C μ i = 0 \mu_i=0 μi=0此时如果 x i i ≤ 1 xi_i\leq1 xii1则该样本处于最大间隔内部,即间隔带上;如果 ξ i > 1 \xi_i>1 ξi>1则该样本处于最大间隔外部即被分错了。由此也可看出,软间隔支持向量机的最终模型仅与支持向量有关。

损失函数分析

非线性支持向量机

现实任务中原始的样本空间 D D D中很可能并不存在一个能正确划分两类样本的超平面。例如图4中所示的问题就无法找到一个超平面将两类样本进行很好的划分。
对于这样的问题可以通过将样本从原始空间映射到特征空间使得样本在映射后的特征空间里线性可分。例如对图5做特征映射 z = x 2 + y 2 z=x^2+y^2 z=x2+y2可得到如图6所示的样本分布,这样就很好进行线性划分了。

图5

在这里插入图片描述

图6


ϕ ( x ⃗ ) \phi(\vec{x}) ϕ(x )表示将样本点 x ⃗ \vec{x} x 映射后的特征向量,类似于线性可分支持向量机中的表示方法,在特征空间中划分超平面所对应的模型可表示为

f ( x ⃗ ) = w ⃗ T Φ ( x ) + b (15) f(\vec{x})=\vec{w}^T\Phi(x)+b\tag{15} f(x )=w TΦ(x)+b(15)

其中 w ⃗ \vec{w} w b b b是待求解的模型参数。问题转换后变成:

{ min ⁡ w ⃗ , b 1 2 ∣ ∣ w ⃗ ∣ ∣ 2 s . t . y i ( w ⃗ T ϕ ( x ⃗ ) + b ) ≥ 1 , i = 1 , 2 , … , n (16) \begin{cases} \min_{\vec{w},b}\frac{1}{2}||\vec{w}||^2\\ s.t. \quad y_i(\vec{w}^T\phi(\vec{x})+b)\geq1\quad,i=1,2,\dots,n \end{cases}\tag{16} {minw ,b21w 2s.t.yi(w Tϕ(x )+b)1,i=1,2,,n(16)

其拉格朗日对偶问题是

{ max ⁡ α ∑ i = 1 n α i − 1 2 ∑ i = 1 n ∑ j = 1 n α i α j y i y j ϕ ( x i ⃗ T ) ϕ ( x j ⃗ ) s . t . α i ≥ 0 , i = 1 , 2 , … , n ∑ i = 1 n α i y i = 0 (17) \begin{cases} \max_\alpha{\sum_{i=1}^{n}\alpha_i-\frac{1}{2}\sum_{i=1}^{n}\sum_{j=1}^{n}\alpha_i\alpha_jy_iy_j\phi(\vec{x_i}^T)\phi(\vec{x_j})}\\ s.t.\quad \alpha_i\geq0\quad\quad\quad,i=1,2,\dots,n \\ \quad\quad\quad \sum_{i=1}^{n}\alpha_iy_i=0 \end{cases}\tag{17} maxαi=1nαi21i=1nj=1nαiαjyiyjϕ(xi T)ϕ(xj )s.t.αi0,i=1,2,,ni=1nαiyi=0(17)

求解(17)需要计算 ϕ ( x i ⃗ T ) ϕ ( x j ⃗ ) \phi(\vec{x_i}^T)\phi(\vec{x_j}) ϕ(xi T)ϕ(xj ),即样本映射到特征空间之后的内积,由于特征空间可能维度很高,甚至可能是无穷维,因此直接计算 ϕ ( x i ⃗ T ) ϕ ( x j ⃗ ) \phi(\vec{x_i}^T)\phi(\vec{x_j}) ϕ(xi T)ϕ(xj )通常是很困难的,而且其实我们根本不关心单个样本的表现,只关心特征空间中样本间两两的乘积,因此我们没有必要把原始空间的样本一个个地映射到特征空间中,只需要想法办求解出样本对应到特征空间中样本间两两的乘积即可。为了解决该问题可设想存在核函数:

κ ( x i ⃗ , x j ⃗ ) = ϕ ( x i ⃗ T ) ϕ ( x j ⃗ ) (18) \kappa(\vec{x_i},\vec{x_j})=\phi(\vec{x_i}^T)\phi(\vec{x_j})\tag{18} κ(xi ,xj )=ϕ(xi T)ϕ(xj )(18)

也就是说 x i ⃗ \vec{x_i} xi x j ⃗ \vec{x_j} xj 在特征空间的内积等于它们在原始空间中通过函数 κ ( ) \kappa() κ()计算的结果,这给求解带来很大的方便。于是式(17)可写为:

{ max ⁡ α ∑ i = 1 n α i − 1 2 ∑ i = 1 n ∑ j = 1 n α i α j y i y j κ ( x i ⃗ , x j ⃗ ) s . t . α i ≥ 0 , i = 1 , 2 , … , n ∑ i = 1 n α i y i = 0 (19) \begin{cases} \max_\alpha{\sum_{i=1}^{n}\alpha_i-\frac{1}{2}\sum_{i=1}^{n}\sum_{j=1}^{n}\alpha_i\alpha_jy_iy_j\kappa(\vec{x_i},\vec{x_j})}\\ s.t.\quad \alpha_i\geq0\quad\quad\quad,i=1,2,\dots,n \\ \quad\quad\quad \sum_{i=1}^{n}\alpha_iy_i=0 \end{cases}\tag{19} maxαi=1nαi21i=1nj=1nαiαjyiyjκ(xi ,xj )s.t.αi0,i=1,2,,ni=1nαiyi=0(19)

同样的我们只关心在高维空间中样本之间两两点乘的结果而不关心样本是如何变换到高维空间中去的。求解后即可得到

f ( x ⃗ ) = w ⃗ T ϕ ( x ⃗ ) + b = ∑ i = 1 n α i y i ϕ ( x ⃗ ) T ϕ ( x ⃗ ) + b = ∑ i = 1 n α i y i κ ( x i ⃗ , x j ⃗ ) + b (20) f(\vec{x})=\vec{w}^T\phi(\vec{x})+b\\ =\sum_{i=1}^{n}\alpha_iy_i\phi(\vec{x})^T\phi(\vec{x})+b\\ =\sum_{i=1}^{n}\alpha_iy_i\kappa(\vec{x_i},\vec{x_j})+b\tag{20} f(x )=w Tϕ(x )+b=i=1nαiyiϕ(x )Tϕ(x )+b=i=1nαiyiκ(xi ,xj )+b(20)

剩余的问题同样是求解 α i \alpha_i αi,然后求解 w ⃗ \vec{w} w b b b即可得到最佳超平面。

常用核函数

名称表达式参数
线性核 κ ( x i ⃗ , x j ⃗ ) = x i ⃗ T x j ⃗ \kappa(\vec{x_i},\vec{x_j})=\vec{x_i}^T\vec{x_j} κ(xi ,xj )=xi Txj
多项式核 κ ( x i ⃗ , x j ⃗ ) = ( x i ⃗ T x j ⃗ ) n \kappa(\vec{x_i},\vec{x_j})=(\vec{x_i}^T\vec{x_j})^n κ(xi ,xj )=(xi Txj )n n ≥ 1 n\geq1 n1为多项式的次数
高斯核(RBF) κ ( x i ⃗ , x j ⃗ ) = e x p ( − ∥ x i ⃗ − x j ⃗ ∥ 2 2 σ 2 ) \kappa(\vec{x_i},\vec{x_j})=exp(-\frac{\|\vec{x_i}-\vec{x_j}\|^2}{2\sigma^2}) κ(xi ,xj )=exp(2σ2xi xj 2) σ > 0 \sigma>0 σ>0为高斯核的带宽
拉普拉斯核 κ ( x i ⃗ , x j ⃗ ) = e x p ( − ∥ x i − x j ∥ σ ) \kappa(\vec{x_i},\vec{x_j})=exp(-\frac{\|x_i-x_j\|}{\sigma}) κ(xi ,xj )=exp(σxixj) σ \sigma σ>0
Sigmoid核 κ ( x i ⃗ , x j ⃗ ) = t a n h ( β x i ⃗ T x j ⃗ + θ ) \kappa(\vec{x_i},\vec{x_j})=tanh(\beta\vec{x_i}^T\vec{x_j}+\theta) κ(xi ,xj )=tanh(βxi Txj +θ)thah​为双曲正切函数

SVM的优缺点

优点:
SVM在中小量样本规模的时候容易得到数据和特征之间的非线性关系,可以避免使用神经网络结构选择和局部极小值问题,可解释性强,可以解决高维问题。
缺点:
SVM对缺失数据敏感,对非线性问题没有通用的解决方案,核函数的正确选择不容易,计算复杂度高,主流的算法可以达到 O ( n 2 ) O(n^2) O(n2)的复杂度,这对大规模的数据是吃不消的。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值