(十二)支持向量机(Support Vecor Machine)1

支持向量机原理(一)

  支持向量机(Support Vecor Machine,以下简称SVM)虽然诞生只有短短的二十多年,但是自一诞生便由于它良好的分类性能席卷了机器学习领域,并牢牢压制了神经网络领域好多年。如果不考虑集成学习的算法,不考虑特定的训练数据集,在分类算法中的表现SVM说是排第一估计是没有什么异议的。
  SVM是一个二元分类算法,线性分类和非线性分类都支持。经过演进,现在也可以支持多元分类,同时经过扩展,也能应用于回归问题。本系列文章就对SVM的原理做一个总结。本篇的重点是SVM用于线性分类时模型和损失函数优化的一个总结。

1. 回顾感知机模型

  在感知机原理小结中,我们讲到了感知机的分类原理,感知机的模型就是尝试找到一条直线,能够把二元数据隔离开。放到三维空间或者更高维的空间,感知机的模型就是尝试找到一个超平面,能够把所有的二元类别隔离开。对于这个分离的超平面,我们定义为 wTx+b=0 w T x + b = 0 ,如下图。在超平面 wTx+b=0 w T x + b = 0 上方的我们定义为 y=1 y = 1 ,在超平面 wTx+b=0 w T x + b = 0 下方的我们定义为 y=1 y = − 1 。可以看出满足这个条件的超平面并不止一个。那么我们可能会尝试思考,这么多的可以分类的超平面,哪个是最好的呢?或者说哪个是泛化能力最强的呢?

感知机回顾

  接着我们看感知机模型的损失函数优化,它的思想是让所有误分类的点(定义为M)到超平面的距离和最小,即最小化下式:

xiMy(i)(wTx(i)+b)/||w||2 ∑ x i ∈ M − y ( i ) ( w T x ( i ) + b ) / | | w | | 2

  当 w w b成比例的增加,比如,当分子的 w w b扩大N倍时,分母的L2范数也会扩大N倍。也就是说,分子和分母有固定的倍数关系。那么我们可以固定分子或者分母为1,然后求另一个即分子自己或者分母的倒数的最小化作为损失函数,这样可以简化我们的损失函数。在感知机模型中,我们采用的是保留分子,固定分母 ||w||2=1 | | w | | 2 = 1 ,即最终感知机模型的损失函数为:
xiMy(i)(wTx(i)+b) ∑ x i ∈ M − y ( i ) ( w T x ( i ) + b )

  如果我们不是固定分母,改为固定分子,作为分类模型有没有改进呢?这些问题在我们引入SVM后会详细解释。

2. 函数间隔与几何间隔

  在正式介绍SVM的模型和损失函数之前,我们还需要先了解下函数间隔和几何间隔的知识。在分离超平面固定为​ wTx+b=0 w T x + b = 0 的时候,​ |wTx+b | | w T x + b   | 表示点x到超平面的距离。通过观察​ wTx+b w T x + b ​ 和y是否同号,我们判断分类是否正确,这些知识我们在感知机模型里都有讲到。这里我们引入函数间隔的概念,定义函数间隔​ γ γ ′ 为:

γ=y(wTx+b) γ ′ = y ( w T x + b )

  可以看到,它就是感知机模型里面的误分类点到超平面距离的分子。对于训练集中m个样本点对应的m个函数间隔的最小值,就是整个训练集的函数间隔。
  函数间隔并不能正常反应点到超平面的距离,在感知机模型里我们也提到,当分子成比例的增长时,分母也是成倍增长。为了统一度量,我们需要对法向量 w w 加上约束条件,这样我们就得到了几何间隔γ,定义为:
γ=y(wTx+b)||w||2= γ||w||2 γ = y ( w T x + b ) | | w | | 2 =   γ ′ | | w | | 2

几何间隔才是点到超平面的真正距离,感知机模型里用到的距离就是几何距离

3. 支持向量

  在感知机模型中,我们可以找到多个可以分类的超平面将数据分开,并且优化时希望所有的点都离超平面远。但是实际上离超平面很远的点已经被正确分类,我们让它离超平面更远并没有意义。反而我们最关心是那些离超平面很近的点,这些点很容易被误分类。如果我们可以让离超平面比较近的点尽可能的远离超平面,那么我们的分类效果会好有一些。SVM的思想起源正起于此。

  如下图所示,分离超平面为 wTx+b=0 w T x + b = 0 ,如果所有的样本不光可以被超平面分开,还和超平面保持一定的函数距离(下图函数距离为1),那么这样的分类超平面是比感知机的分类超平面优的。可以证明,这样的超平面只有一个。和超平面平行的保持一定的函数距离的这两个超平面对应的向量,我们定义为支持向量,如下图虚线所示。

支持向量

  支持向量到超平面的距离为 1/||w||2 1 / | | w | | 2 ,两个支持向量之间的距离为 2/||w||2 2 / | | w | | 2

4. SVM模型目标函数与优化

  SVM的模型是让所有点到超平面的距离大于一定的距离,也就是所有的分类点要在各自类别的支持向量两边。用数学式子表示为:

maxγ=y(wTx+b)||w||2 s.tyi(wTxi+b)/||w||γ m a x γ = y ( w T x + b ) | | w | | 2   s . t y i ( w T x i + b ) / | | w | | ≥ γ

  几何间隔 γ0 γ ≥ 0 结合几何间隔和函数间隔关系得:
maxγ=y(wTx+b)||w||2 s.tyi(wTxi+b)γ(i=1,2,...m) m a x γ = y ( w T x + b ) | | w | | 2   s . t y i ( w T x i + b ) ≥ γ ′ ( i = 1 , 2 , . . . m )

  一般我们都取函数间隔 γ γ ′ 为1,这样我们的优化函数定义为:
max1||w||2 s.tyi(wTxi+b) 1(i=1,2,...m) m a x 1 | | w | | 2   s . t y i ( w T x i + b )   ≥ 1 ( i = 1 , 2 , . . . m )

  也就是说,我们要在约束条件 yi(wTxi+b) 1(i=1,2,...m) y i ( w T x i + b )   ≥ 1 ( i = 1 , 2 , . . . m ) 下,最大化 1||w||2 1 | | w | | 2 。可以看出,这个感知机的优化方式不同,感知机是固定分母优化分子,而SVM是固定分子优化分母,同时加上了支持向量的限制。
  由于 1||w||2 1 | | w | | 2 的最大化等同于 12||w||22 1 2 | | w | | 2 2 的最小化。这样SVM的优化函数等价于:
min12||w||22 s.tyi(wTxi+b) 1(i=1,2,...m) m i n 1 2 | | w | | 2 2   s . t y i ( w T x i + b )   ≥ 1 ( i = 1 , 2 , . . . m )

  由于目标函数 12||w||22 1 2 | | w | | 2 2 是凸函数,同时约束条件不等式是仿射的,根据凸优化理论,我们可以通过拉格朗日函数将我们的优化目标转化为无约束的优化函数,具体的,优化函数转化为:
L(w,b,α)=12||w||22i=1mαi[yi(wTxi+b)1]αi0 L ( w , b , α ) = 1 2 | | w | | 2 2 − ∑ i = 1 m α i [ y i ( w T x i + b ) − 1 ] 满 足 α i ≥ 0

  由于引入了朗格朗日乘子,我们的优化目标变成:
minw,bmaxαi0L(w,b,α) m i n ⏟ w , b m a x ⏟ α i ≥ 0 L ( w , b , α )

  和最大熵模型一样的,我们的这个优化函数满足KKT条件,也就是说,我们可以通过拉格朗日对偶将我们的优化问题转化为等价的对偶问题来求解。
  也就是说,现在我们要求的是:
maxαi0minw,b L(w,b,α) m a x ⏟ α i ≥ 0 m i n ⏟ w , b   L ( w , b , α )

  从上式中,我们可以先求优化函数对于 wb w 和 b 的极小值。接着再求拉格朗日乘子 α α 的极大值。
  首先我们来求 wb w 和 b 的极小值,即 minw,b L(w,b,α) m i n ⏟ w , b   L ( w , b , α ) 。这个极值我们可以通过对 wb w 和 b 分别求偏导数得到:
Lw=0w=i=1mαiyixi ∂ L ∂ w = 0 ⇒ w = ∑ i = 1 m α i y i x i

Lb=0i=1mαiyi=0 ∂ L ∂ b = 0 ⇒ ∑ i = 1 m α i y i = 0

  从上两式子可以看出,我们已经求得了 wα w 和 α 的关系,只要我们后面接着能够求出优化函数极大化对应的 α α ,就可以求出我们的 w w 了,至于b,由于上两式已经没有b,所以最后的b可以有多个
  好了,既然我们已经求出wα的关系,就可以带入优化函数 L(w,b,α) L ( w , b , α ) 消去 w w 了。我们定义:
ψ(α)=minw,b L(w,b,α)

  现在我们来看将 w w 替换为α的表达式以后的优化函数 ψ(α) ψ ( α ) 的表达式:
ψ(α)= 12||w||22i=1mαi[yi(wTxi+b)1] =12wTwi=1mαiyiwTxii=1mαiyib+ i=1mαi =12wTi=1mαiyixii=1mαiyiwTxii=1mαiyib+ i=1mαi =12wTi=1mαiyixiwTi=1mαiyixii=1mαiyib+ i=1mαi =12wTi=1mαiyixii=1mαiyib+ i=1mαi =12wTi=1mαiyixibi=1mαiyi+ i=1mαi =12(i=1mαiyixi)T(i=1mαiyixi)bi=1mαiyi+ i=1mαi =12i=1mαiyixTii=1mαiyixibi=1mαiyi+ i=1mαi =12i=1mαiyixTii=1mαiyixi+ i=1mαi =12i=1,j=1mαiyixTiαjyjxj+ i=1mαi =i=1mαi 12i=1,j=1mαiαjyiyjxTixj(1)(2)(3)(4)(5)(6)(7)(8)(9)(10)(11)(1)(2)(3)(4)(5)(6)(7)(8)(9)(10)(11) (1) ψ ( α ) =   1 2 | | w | | 2 2 − ∑ i = 1 m α i [ y i ( w T x i + b ) − 1 ] ( 1 ) (2)   = 1 2 w T w − ∑ i = 1 m α i y i w T x i − ∑ i = 1 m α i y i b +   ∑ i = 1 m α i ( 2 ) (3)   = 1 2 w T ∑ i = 1 m α i y i x i − ∑ i = 1 m α i y i w T x i − ∑ i = 1 m α i y i b +   ∑ i = 1 m α i ( 3 ) (4)   = 1 2 w T ∑ i = 1 m α i y i x i − w T ∑ i = 1 m α i y i x i − ∑ i = 1 m α i y i b +   ∑ i = 1 m α i ( 4 ) (5)   = − 1 2 w T ∑ i = 1 m α i y i x i − ∑ i = 1 m α i y i b +   ∑ i = 1 m α i ( 5 ) (6)   = − 1 2 w T ∑ i = 1 m α i y i x i − b ∑ i = 1 m α i y i +   ∑ i = 1 m α i ( 6 ) (7)   = − 1 2 ( ∑ i = 1 m α i y i x i ) T ( ∑ i = 1 m α i y i x i ) − b ∑ i = 1 m α i y i +   ∑ i = 1 m α i ( 7 ) (8)   = − 1 2 ∑ i = 1 m α i y i x i T ∑ i = 1 m α i y i x i − b ∑ i = 1 m α i y i +   ∑ i = 1 m α i ( 8 ) (9)   = − 1 2 ∑ i = 1 m α i y i x i T ∑ i = 1 m α i y i x i +   ∑ i = 1 m α i ( 9 ) (10)   = − 1 2 ∑ i = 1 , j = 1 m α i y i x i T α j y j x j +   ∑ i = 1 m α i ( 10 ) (11)   = ∑ i = 1 m α i   − 1 2 ∑ i = 1 , j = 1 m α i α j y i y j x i T x j ( 11 )

  其中,(1)式到(2)式用到了范数的定义 ||w||22=wTw | | w | | 2 2 = w T w , (2)式到(3)式用到了上面的 w=i=1mαiyixi w = ∑ i = 1 m α i y i x i , (3)式到(4)式把和样本无关的 wT w T ​ 提前,(4)式到(5)式合并了同类项,(5)式到(6)式把和样本无关的 b b ​ 提前,(6)式到(7)式继续用到 w=i=1mαiyixi w = ∑ i = 1 m α i y i x i ,(7)式到(8)式用到了向量的转置。由于常量的转置是其本身,所有只有向量 xi x i 被转置,(8)式到(9)式用到了上面的 i=1mαiyi=0 ∑ i = 1 m α i y i = 0 ,(9)式到(10)式使用了 (a+b+c+)(a+b+c+)=aa+ab+ac+ba+bb+bc+ ( a + b + c + … ) ( a + b + c + … ) = a a + a b + a c + b a + b b + b c + … 的乘法运算法则,(10)式到(11)式仅仅是位置的调整。
  从上面可以看出,通过对 w,b w , b 极小化以后,我们的优化函数 ψ(α) ψ ( α ) 仅仅只有 α α 向量做参数。只要我们能够极大化 ψ(α) ψ ( α ) ,就可以求出此时对应的 α α ,进而求出 w,b w , b .

  对 ψ(α) ψ ( α ) 求极大化的数学表达式如下:

maxα12i=1mj=1mαiαjyiyj(xixj)+i=1mαi m a x ⏟ α − 1 2 ∑ i = 1 m ∑ j = 1 m α i α j y i y j ( x i ∙ x j ) + ∑ i = 1 m α i

s.t.i=1mαiyi=0 s . t . ∑ i = 1 m α i y i = 0

αi0 i=1,2,...m α i ≥ 0   i = 1 , 2 , . . . m

  可以去掉负号,即为等价的极小化问题如下:
minα12i=1mj=1mαiαjyiyj(xixj) i=1mαi m i n ⏟ α 1 2 ∑ i = 1 m ∑ j = 1 m α i α j y i y j ( x i ∙ x j ) −   ∑ i = 1 m α i

s.t.i=1mαiyi=0 s . t . ∑ i = 1 m α i y i = 0

αi0 i=1,2,...m α i ≥ 0   i = 1 , 2 , . . . m

  只要我们可以求出上式极小化时对应的 α α 向量就可以求出 wb w 和 b 了。具体怎么极小化上式得到对应的 α α ,一般需要用到SMO算法,这个算法比较复杂,我们后面会专门来讲。在这里,我们假设通过SMO算法,我们得到了对应的 α α 的值 α α ∗

  那么我们根据 w=i=1mαiyixi w = ∑ i = 1 m α i y i x i ,可以求出对应的 w w 的值

w=i=1mαiyixi

  求 b b 则稍微麻烦一点。注意到,对于任意支持向量(xx,ys),都有:

ys(wTxs+b)=ys(i=1mαiyixTixs+b)=1 y s ( w T x s + b ) = y s ( ∑ i = 1 m α i y i x i T x s + b ) = 1

  假设我们有S个支持向量,则对应我们求出S个 b b ∗ ,理论上这些 b b ∗ 都可以作为最终的结果, 但是我们一般采用一种更健壮的办法,即求出所有支持向量所对应的 bs b s ∗ ,然后将其平均值作为最后的结果。注意到对于严格线性可分的SVM, b b 的值是有唯一解的,也就是这里求出的所有b都是一样的,这里我们仍然这么写是为了和后面加入软间隔后的SVM的算法描述一致

  怎么得到支持向量呢?根据KKT条件中的对偶互补条件 αi(yi(wTxi+b)1)=0 α i ∗ ( y i ( w T x i + b ) − 1 ) = 0 ,如果 αi > 0 α i   >   0 则有 yi(wTxi+b)=1 y i ( w T x i + b ) = 1 即点在支持向量上,否则如果 αi=0 α i = 0 则有 yi(wTxi+b)1 y i ( w T x i + b ) ≥ 1 ,即样本在支持向量上或者已经被正确分类。

5. 线性可分SVM的算法过程

  这里我们对线性可分SVM的算法过程做一个总结。输入是线性可分的m个样本 (x1,y1),(x2,y2),...,(xm,ym), ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x m , y m ) , ,其中x为n维特征向量。y为二元输出,值为1,或者-1.输出是分离超平面的参数 wb w ∗ 和 b ∗ 和分类决策函数。

算法过程如下:
1. 构造约束优化问题

minα   12i=1mj=1mαiαjyiyj(xixj) i=1mαi m i n ⏟ α       1 2 ∑ i = 1 m ∑ j = 1 m α i α j y i y j ( x i ∙ x j ) −   ∑ i = 1 m α i

s.t.i=1mαiyi=0 s . t . ∑ i = 1 m α i y i = 0

αi0 i=1,2,...m α i ≥ 0   i = 1 , 2 , . . . m

  1. 用SMO算法求出上式最小时对应的 α α 向量的值 α α ∗ 向量。
  2. 计算 w=i=1mαiyixi w ∗ = ∑ i = 1 m α i ∗ y i x i
  3. 找出所有的S个支持向量,即满足 αs > 0 α s   >   0 对应的样本 (xs,ys) ( x s , y s ) ,通过 ys(i=1mαiyixTixs+b)=1 y s ( ∑ i = 1 m α i y i x i T x s + b ) = 1 ,计算出每个支持向量 (xx,ys) ( x x , y s ) 对应的 bs b s ∗ ,计算出这些 bs=ysi=1mαiyixTixs b s ∗ = y s − ∑ i = 1 m α i y i x i T x s . 所有的 bs b s ∗ 对应的平均值即为最终的 b=1Si=1Sbs b ∗ = 1 S ∑ i = 1 S b s ∗
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
基于深度学习的LSTM情感分析是一种常用的文本情感分析方法。LSTM(Long Short-Term Memory)是一种特殊的循环神经网络,它能够有效地处理序列数据,因此在文本处理中得到了广泛应用。下面是一个简单的LSTM情感分析模型的实现示例: ```python import numpy as np from keras.datasets import imdb from keras.models import Sequential from keras.layers import Dense, LSTM, Embedding from keras.preprocessing import sequence # 加载IMDB数据集 top_words = 5000 (X_train, y_train), (X_test, y_test) = imdb.load_data(num_words=top_words) # 对数据进行预处理 max_review_length = 500 X_train = sequence.pad_sequences(X_train, maxlen=max_review_length) X_test = sequence.pad_sequences(X_test, maxlen=max_review_length) # 构建LSTM模型 embedding_vecor_length = 32 model = Sequential() model.add(Embedding(top_words, embedding_vecor_length, input_length=max_review_length)) model.add(LSTM(100)) model.add(Dense(1, activation='sigmoid')) model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy']) print(model.summary()) # 训练模型 model.fit(X_train, y_train, validation_data=(X_test, y_test), epochs=3, batch_size=64) # 评估模型 scores = model.evaluate(X_test, y_test, verbose=0) print("Accuracy: %.2f%%" % (scores[1]*100)) ``` 在上面的代码中,我们使用Keras框架构建了一个简单的LSTM模型,用于对IMDB电影评论进行情感分析。首先,我们加载了IMDB数据集,并对数据进行了预处理。然后,我们构建了一个包含一个嵌入层、一个LSTM层和一个全连接层的模型,并使用二元交叉熵作为损失函数,Adam优化器进行优化。最后,我们训练了模型,并评估了模型的准确率。 --相关问题--: 1. LSTM模型的优点是什么? 2. 除了LSTM,还
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值