【机器学习实战】6、支持向量机

6.1 什么是支持向量机

支持向量机(Support Vector Machines)是目前被认为最好的现成的算法之一

6.1.1 线性SVM

线性可分的二分类问题:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-LTLkEeK2-1663157259357)(//img-blog.csdn.net/20180316111012995?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

上图中红色和蓝色分别表示不同的两个类别,数据为线性可分,但是将其分开的直线不止一条,(b)©分别给出了不同的方法。黑色的实现为“决策面”,每个决策面对应一个线性分类器,两者的性能是有差距的。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-1lSt7z6Q-1663157259357)(//img-blog.csdn.net/20180316111333389?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

决策面不同的情况下,添加一个红色的点,显然(b)仍然能够很好的分类,但是©已经分类错误了,所以决策面(b)优于©。

如何选择较好的决策面:

在保证决策面方向不变且不会出现错分样本的情况下移动决策面,会在原来的决策面两侧找到两个极限位置(越过该位置就会产生错分现象),如虚线所示。

虚线的位置由决策面的方向和距离原决策面最近的几个样本的位置决定。而这两条平行虚线正中间的分界线就是在保持当前决策面方向不变的前提下的最优决策面。

两条虚线之间的垂直距离就是这个最优决策面对应的分类间隔。显然每一个可能把数据集正确分开的方向都有一个最优决策面(有些方向无论如何移动决策面的位置也不可能将两类样本完全分开),而不同方向的最优决策面的分类间隔通常是不同的,那个具有“最大间隔”的决策面就是SVM要寻找的最优解。

而这个真正的最优解对应的两侧虚线所穿过的样本点,就是SVM中的支持样本点,称为”支持向量”。

学习的目标是在特征空间中找到一个分离超平面,能将实例分到不同的类中。

分离超平面的方程: w ⋅ x + b = 0 w\cdot x+b=0 wx+b=0

方程由法向量 w w w和截距 b b b决定,可以用 ( w , b ) (w,b) (w,b)来表示。
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-u5LAe4a0-1663157259357)(//img-blog.csdn.net/20180316164035277?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]
分离超平面将特征空间划分为两部分,一部分为正类,一部分为负类,法向量指向的一侧为正类,另一侧为负类。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-QHeLnEi3-1663157259358)(//img-blog.csdn.net/20180316113901835?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

####6.1.2 函数间隔和几何间隔

这里写图片描述

这里写图片描述

这里写图片描述

备注:

这里写图片描述这里写图片描述

上图7.1中有A,B,C三个点,表示3个实例,均在分离超平面的正类一侧,预测他们的类,点A距离超平面较远,若预测该类为正类,就比较确信为正确的,点C距离分离超平面较近,不是很确信。

函数间隔(function margin):

一般来说,一个点距离分离超平面的远近可以表示分类预测的确信程度,在超平面 w ⋅ x + b = 0 w\cdot x+b=0 wx+b=0确定的情况下, ∣ w ⋅ x + b ∣ |w\cdot x+b| wx+b能够相对的表示点x距离超平面的远近,而 w ⋅ x + b w\cdot x+b wx+b的符号与类标记y的符号是否一致能够表示分类是否正确,所以可以量 y ( w ⋅ x + b ) y(w\cdot x+b) y(wx+b)来表示分离的正确性和确信度。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-uj5gFnZK-1663157259358)(//img-blog.csdn.net/20180316114947970?)]

从函数间隔变为几何间隔:

虽然函数间隔可以表示分类预测的正确性即确信度,但是选择分离超平面时,只有函数间隔远远不够,因为只要成比例的改变 w w w b b b,例如将它们改变为 2 w 2w 2w 2 b 2b 2b,超平面并没有改变( w ∗ x + b = 0 w*x+b=0 wx+b=0,右边为0,不会因为系数而改变),但是函数间隔( y ( w ∗ x + b ) y(w*x+b) y(wx+b))却变为原来的2倍。

对分离超平面的法向量 w w w加某些约束,如规范化, ∣ ∣ w ∣ ∣ = 1 ||w||=1 ∣∣w∣∣=1,使得间隔是确定的,此时函数间隔变为几何间隔。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-3mMgc38I-1663157259358)(//img-blog.csdn.net/20180316120718908?)]

上图给出了超平面 ( w , b ) (w,b) (w,b)和其法向量 w w w,点 A A A表示某一实例 x i x_i xi,其类标记为 y i = + 1 y_i=+1 yi=+1,点 A A A与超平面的距离由线段 A B AB AB给出,记作 y i y_i yi

$y_i=\frac {w}{||w||}\cdot x_i+\frac {b}{||w||}$

其中, ∣ ∣ w ∣ ∣ ||w|| ∣∣w∣∣ w w w L 2 L_2 L2范数,如果点 A A A在超平面的负一侧,即 y i = − 1 y_i=-1 yi=1,则:

$y_i=- \left ( \frac {w}{||w||}\cdot \frac {b}{||w||}\right)$

一般情况,当样本点 ( x i , y i ) (x_i,y_i) (xi,yi)被超平面 ( w , b ) (w,b) (w,b)正确分类时,点 x i x_i xi与超平面 ( w , b ) (w,b) (w,b)的距离是:

$\gamma _i=y_i \left ( \frac {w}{||w||}\cdot x_i+\frac {b}{||w||}\right)$

几何间隔的概念:
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-aDemIo8A-1663157259358)(//img-blog.csdn.net/20180316161400319?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

####6.1.3 最大间隔分离超平面

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-sLqgf9eH-1663157259358)(//img-blog.csdn.net/20180316164353280?)]

最大间隔分离超平面,即为下面的约束最优化问题:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-NQfUVQ3S-1663157259359)(//img-blog.csdn.net/20180316164623494?)]

γ = 1 \gamma =1 γ=1,最大化 1 ∣ ∣ w ∣ ∣ \frac {1}{||w||} ∣∣w∣∣1,和最小化 1 2 ∣ ∣ w ∣ ∣ 2 \frac{1}{2}||w||^2 21∣∣w2是等价的,所以变为:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-POTnepRg-1663157259359)(//img-blog.csdn.net/20180316164924392?)]

这就变为一个凸二次规划问题,求出上式的解 w ∗ w^* w b ∗ b^* b,就可以得到最大间隔分离超平面 w ∗ ⋅ x + b ∗ w^*\cdot x+b^* wx+b及分类决策函数 f ( x ) = s i g n ( w ∗ ⋅ x + b ∗ ) f(x)=sign(w^*\cdot x+b^*) f(x)=sign(wx+b),即线性可分支持向量机模型。

总结:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-BYv1wDuM-1663157259359)(//img-blog.csdn.net/2018031616535083?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

线性可分训练数据集的最大间隔分离超平面是存在且唯一的

####6.1.4 支持向量和间隔边界

支持向量:

在线性可分情况下,训练数据集的样本点中与分离超平面距离最近的样本点的实例称为支持向量,支持向量是使约束条件等号成立的点,即:

$y_i(w\times x_i+b)-1=0$

y i = + 1 y_i=+1 yi=+1的正例点,支持向量在超平面:

$H_1:w\times x_i+b=1$

y i = + 1 y_i=+1 yi=+1的正例点,支持向量在超平面:

$H_2:w\times x_i+b=1$

如下图所示,在 H 1 H_1 H1 H 2 H_2 H2上的点就是支持向量。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-MiziUvC9-1663157259359)(//img-blog.csdn.net/20180316171844438?)]

间隔边界:

H 1 H_1 H1 H 2 H_2 H2平行,且没有实例点落在它们中间,分离超平面与它们平行且位于中央,间隔即为 H 1 H_1 H1 H 2 H_2 H2直接的距离,依赖于分离超平面的法向量 w w w,等于 2 ∣ ∣ w ∣ ∣ \frac {2}{||w||} ∣∣w∣∣2 H 1 H_1 H1 H 2 H_2 H2称为间隔边界。

分离超平面是由支持向量决定的,其他实例点并不起作用,移动支持向量将会改变所求平面,移动其他实例点所求平面不会改变。

由于支持向量在确定分离超平面中起着决定性作用,所以将这种分离模型称为支持向量机。

支持向量的个数一般很少,所以支持向量机由很少的“重要的”训练样本确定。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-3vqHmnb4-1663157259359)(//img-blog.csdn.net/20180316173144453?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

####6.1.4 学习的对偶算法

为了求解线性可分支持向量机的最优化问题,将它作为原始最优化问题,应用拉格朗日对偶性,通过求解对偶问题得到原始问题的最优解,这就是线性可分支持向量机的对偶算法。

对偶算法的优点:

1)对偶问题往往更容易求解
2)自然引入核函数,进而推广到非线性分类问题

首先,我们先要从宏观的视野上了解一下拉格朗日对偶问题出现的原因和背景。

我们知道我们要求解的是最小化问题,所以一个直观的想法是如果我能够构造一个函数,使得该函数在可行解区域内与原目标函数完全一致,而在可行解区域外的数值非常大,甚至是无穷大,那么这个没有约束条件的新目标函数的优化问题就与原来有约束条件的原始目标函数的优化问题是等价的问题。这就是使用拉格朗日方程的目的,它将约束条件放到目标函数中,从而将有约束优化问题转换为无约束优化问题。

随后,人们又发现,使用拉格朗日获得的函数,使用求导的方法求解依然困难。进而,需要对问题再进行一次转换,即使用一个数学技巧:拉格朗日对偶。

所以,显而易见的是,我们在拉格朗日优化我们的问题这个道路上,需要进行下面二个步骤:

  • 将有约束的原始目标函数转换为无约束的新构造的拉格朗日目标函数
  • 使用拉格朗日对偶性,将不易求解的优化问题转化为易求解的优化

而求解这个对偶学习问题,可以分为三个步骤:首先要让 L ( w , b , α ) L(w,b,α) L(w,b,α)关于 w w w b b b最小化,然后求对α的极大,最后利用SMO算法求解对偶问题中的拉格朗日乘子。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-p1HOCpIS-1663157259360)(//img-blog.csdn.net/20180318200302547?)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-pjAwpmaT-1663157259360)(//img-blog.csdn.net/20180318200214487?)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-iGX4E2uL-1663157259360)(//img-blog.csdn.net/20180318200524157?)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-CgxPBRY7-1663157259360)(//img-blog.csdn.net/20180318200536372?)]

  • KKT条件

假设一个最优化模型能够表示成下列标准形式:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-3WSl7vci-1663157259360)(//img-blog.csdn.net/2018031820190825?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]
KKT条件的全称是Karush-Kuhn-Tucker条件,KKT条件是说最优值条件必须满足以下条件:
1)条件一:经过拉格朗日函数处理之后的新目标函数L(w,b,α)对α求导为零:
2)条件二: h ( x ) = 0 h(x) = 0 h(x)=0
3)条件三: α ∗ g ( x ) = 0 α*g(x) = 0 αg(x)=0

对于我们的优化问题:
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-yhvRMgrI-1663157259363)(//img-blog.csdn.net/20180318202007258?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

上述优化问题满足三个条件,故满足了凸优化问题和KKT条件。

示例:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-IBpuZFGl-1663157259363)(//img-blog.csdn.net/2018031820312075?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-PnfUhPZA-1663157259363)(//img-blog.csdn.net/20180318203128668?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-V3IUdwU5-1663157259363)(//img-blog.csdn.net/20180318203137337?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

###6.2 线性支持向量机与软间隔最大化

####6.2.1 线性支持向量机

线性可分问题的支持向量机学习方法对线性不可分训练数据是不适用的,因为上述方法在那个的不等式约束并不成立。

如何将其扩展到线性不可分问题:

修改硬间隔最大化,使其成为软间隔最大化。

假设给定一个特征空间上的训练数据集:

$T={ (X_1,Y_1),(X_2,Y_2),…,(x_N,y_N) } $
其中,$x-i \in \chi=R^n,y_i \in Y={+1,-1},i=1,2,…,N , , x_i 为第 i 个特征向量, 为第i个特征向量, 为第i个特征向量,y_i 为 为 x_i$的类标记,假设训练数据集是线性不可分的,通常情况是,训练数据中有一些特异点(outlier),将这些特异点去除后,剩下的大部分样本点组成的几何是线性可分的。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-J9qTvMYG-1663157259364)(//img-blog.csdn.net/20180318210500833?)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-4u43Iosm-1663157259364)(//img-blog.csdn.net/2018031821064683?)]

线性支持向量机定义:

给定的线性不可分的训练数据集,通过求解凸二次规划问题,即软间隔最大化问题(7.32)~(7.34),得到的分离超平面为:

$w^*\cdot x+b^*=0$

以及相应的分类决策函数:

$f(x)=sign(w^*\cdot x+b^*)$

称为线性支持向量机

####6.2.2 学习的对偶算法

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-uKYWjrEY-1663157259364)(//img-blog.csdn.net/20180318212407880?)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-sLIProdB-1663157259364)(//img-blog.csdn.net/20180318212449635?)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-iU48KIYj-1663157259364)(//img-blog.csdn.net/20180318212637976?)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-BpuJJBRm-1663157259364)(//img-blog.csdn.net/20180318212649281?)]

步骤(2)中,对任一适合条件 0 < α j ∗ < C 0<\alpha_j^*<C 0<αj<C α j ∗ \alpha_j^* αj都可以求出 b ∗ b^* b,但是由于问题(7.32)~(7.34)对 b b b的解不唯一,所以实际计算时可以取在所有符合条件的样本点上的平均值。

####6.2.3 支持向量

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-GhwcCIIa-1663157259364)(//img-blog.csdn.net/20180318213039321?)]

####6.2.4 合页损失函数

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-jPyIktt3-1663157259365)(//img-blog.csdn.net/20180318214816933?)]
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-0OCQqzlr-1663157259365)(//img-blog.csdn.net/20180318214824352?)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-UC58vruH-1663157259365)(//img-blog.csdn.net/20180318215041876?)]
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-mUGvkGjS-1663157259365)(//img-blog.csdn.net/20180318215049884?)]

####6.2.5 编程求解线性SVM

可视化数据集

import matplotlib.pylab as plt
import numpy as np

"""
函数说明:读取数据
"""


# readlines() 自动将文件内容分析成一个行的列表,该列表可以由 Python 的 for... in...结构进行处理
# readlines()一次读取整个文件,readline() 每次只读取一行,通常比 .readlines() 慢得多

def loadDataSet(fileName):
	dataMat = []; labelMat = []
	fr = open(fileName)
	for line in fr.readlines():                                     #逐行读取,滤除空格等
		lineArr = line.strip().split('\t')
		dataMat.append([float(lineArr[0]), float(lineArr[1])])      #添加数据
		labelMat.append(float(lineArr[2]))                          #添加标签
	return dataMat,labelMat


"""
函数说明:数据可视化

"""


def showDataSet(dataMat, labelMat):
    data_plus = []  # 正样本
    data_minus = []  # 负样本
    for i in range(len(dataMat)):
        if labelMat[i] > 0:
            data_plus.append(dataMat[i])
        else:
            data_minus.append(dataMat[i])
    data_plus_np = np.array(data_plus)  # 转换为numpy矩阵
    data_minus_np = np.array(data_minus)  # 转换为numpy矩阵
    plt.scatter(np.transpose(data_plus_np)[0], np.transpose(data_plus_np)[1])  # 正样本散点图
    plt.scatter(np.transpose(data_minus_np)[0], np.transpose(data_minus_np)[1])  # 负样本散点图
    plt.show()


if __name__ == '__main__':
    dataMat, labelMat = loadDataSet('testSet.txt')
    showDataSet(dataMat, labelMat)

结果:
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-iw2NMpb8-1663157259365)(//img-blog.csdn.net/20180319170929961?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

####6.2.6 简化版SMO算法

from time import sleep
import matplotlib.pylab as plt
import numpy as np
import random
import types

"""
函数说明:读取数据

"""


def loadDataSet(fileName):
    dataMat = []
    labelMat = []
    fr = open(fileName)
    for line in fr.readlines():  # 逐行读取,滤除空格等
        lineArr = line.strip().split('\t')
        dataMat.append([float(lineArr[0]), float(lineArr[1])])  # 添加数据
        labelMat.append(float(lineArr[2]))  # 添加标签
    return dataMat, labelMat


"""
函数说明:随机选择alpha

Parameters:
    i:alpha
    m:alpha参数个数
"""


def selectJrand(i, m):
    j = i
    # 选择一个不等于i的j
    while (j == i):
        j = int(random.uniform(0, m))
    return j


"""
函数说明:修剪alpha
Parameters:
    aj:alpha的值
    H:alpha上限
    L:alpha下限

Returns:
    aj:alpha的值
"""


def clipAlpha(aj, H, L):
    if aj > H:
        aj = H
    if L > aj:
        aj = L
    return aj


"""
函数说明:简化版SMO算法

Parameters:
    dataMatIn:数据矩阵
    classLabels:数据标签
    C:松弛变量
    toler:容错率
    maxIter:最大迭代次数
"""


def smoSimple(dataMatIn, classLabels, C, toler, maxIter):
    # 转换为numpy的mat存储
    dataMatrix = np.mat(dataMatIn)
    labelMat = np.mat(classLabels).transpose()
    # 初始化b参数,统计dataMatrix的维度
    b = 0;
    m, n = np.shape(dataMatrix)
    # 初始化alpha参数,设为0
    alphas = np.mat(np.zeros((m, 1)))
    # 初始化迭代次数
    iter_num = 0
    # 最多迭代matIter次
    while (iter_num < maxIter):
        alphaPairsChanged = 0
        for i in range(m):
            # 步骤1:计算误差Ei
            fXi = float(np.multiply(alphas, labelMat).T * (dataMatrix * dataMatrix[i, :].T)) + b
            Ei = fXi - float(labelMat[i])
            # 优化alpha,设定一定的容错率。
            if ((labelMat[i] * Ei < -toler) and (alphas[i] < C)) or ((labelMat[i] * Ei > toler) and (alphas[i] > 0)):
                # 随机选择另一个与alpha_i成对优化的alpha_j
                j = selectJrand(i, m)
                # 步骤1:计算误差Ej
                fXj = float(np.multiply(alphas, labelMat).T * (dataMatrix * dataMatrix[j, :].T)) + b
                Ej = fXj - float(labelMat[j])
                # 保存更新前的aplpha值,使用深拷贝
                alphaIold = alphas[i].copy()
                alphaJold = alphas[j].copy()
                # 步骤2:计算上下界L和H
                if (labelMat[i] != labelMat[j]):
                    L = max(0, alphas[j] - alphas[i])
                    H = min(C, C + alphas[j] - alphas[i])
                else:
                    L = max(0, alphas[j] + alphas[i] - C)
                    H = min(C, alphas[j] + alphas[i])
                if L == H: print("L==H"); continue
                # 步骤3:计算eta
                eta = 2.0 * dataMatrix[i, :] * dataMatrix[j, :].T - dataMatrix[i, :] * dataMatrix[i, :].T -\
                      dataMatrix[j,:] * dataMatrix[j, :].T
                if eta >= 0: print("eta>=0"); continue
                # 步骤4:更新alpha_j
                alphas[j] -= labelMat[j] * (Ei - Ej) / eta
                # 步骤5:修剪alpha_j
                alphas[j] = clipAlpha(alphas[j], H, L)
                if (abs(alphas[j] - alphaJold) < 0.00001): print("alpha_j变化太小"); continue
                # 步骤6:更新alpha_i
                alphas[i] += labelMat[j] * labelMat[i] * (alphaJold - alphas[j])
                # 步骤7:更新b_1和b_2
                b1 = b - Ei - labelMat[i] * (alphas[i] - alphaIold) * dataMatrix[i, :] * dataMatrix[i, :].T - labelMat[
                    j] * (alphas[j] - alphaJold) * dataMatrix[i, :] * dataMatrix[j, :].T
                b2 = b - Ej - labelMat[i] * (alphas[i] - alphaIold) * dataMatrix[i, :] * dataMatrix[j, :].T - labelMat[
                    j] * (alphas[j] - alphaJold) * dataMatrix[j, :] * dataMatrix[j, :].T
                # 步骤8:根据b_1和b_2更新b
                if (0 < alphas[i]) and (C > alphas[i]):
                    b = b1
                elif (0 < alphas[j]) and (C > alphas[j]):
                    b = b2
                else:
                    b = (b1 + b2) / 2.0
                # 统计优化次数
                alphaPairsChanged += 1
                # 打印统计信息
                print("第%d次迭代 样本:%d, alpha优化次数:%d" % (iter_num, i, alphaPairsChanged))
        # 更新迭代次数
        if (alphaPairsChanged == 0):
            iter_num += 1
        else:
            iter_num = 0
        print("迭代次数: %d" % iter_num)
    return b, alphas


"""
函数说明:分类结果可视化
"""


def showClassifer(dataMat, w, b):
    # 绘制样本点
    data_plus = []  # 正样本
    data_minus = []  # 负样本
    for i in range(len(dataMat)):
        if labelMat[i] > 0:
            data_plus.append(dataMat[i])
        else:
            data_minus.append(dataMat[i])
    data_plus_np = np.array(data_plus)  # 转换为numpy矩阵
    data_minus_np = np.array(data_minus)  # 转换为numpy矩阵
    plt.scatter(np.transpose(data_plus_np)[0], np.transpose(data_plus_np)[1], s=30,alpha=0.7)  # 正样本散点图
    plt.scatter(np.transpose(data_minus_np)[0], np.transpose(data_minus_np)[1], s=30,alpha=0.7)  # 负样本散点图
    # 绘制直线
    x1 = max(dataMat)[0]
    x2 = min(dataMat)[0]
    a1, a2 = w
    b = float(b)
    a1 = float(a1[0])
    a2 = float(a2[0])
    y1, y2 = (-b - a1 * x1) / a2, (-b - a1 * x2) / a2
    plt.plot([x1, x2], [y1, y2])
    # 找出支持向量点
    for i, alpha in enumerate(alphas):
        if abs(alpha) > 0:
            x, y = dataMat[i]
            plt.scatter([x], [y], s=150, c='none', alpha=0.7, linewidth=1.5, edgecolor='red')
    plt.show()

"""
函数说明:计算w
"""


def get_w(dataMat, labelMat, alphas):
    alphas, dataMat, labelMat = np.array(alphas), np.array(dataMat), np.array(labelMat)
    w = np.dot((np.tile(labelMat.reshape(1, -1).T, (1, 2)) * dataMat).T, alphas)
    return w.tolist()


if __name__ == '__main__':
    dataMat, labelMat = loadDataSet('testSet.txt')
    b, alphas = smoSimple(dataMat, labelMat, 0.6, 0.001, 40)
    w = get_w(dataMat, labelMat, alphas)
    showClassifer(dataMat, w, b)

结果:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-jKt4QlvB-1663157259365)(//img-blog.csdn.net/20180319171020386?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

蓝色实线是所求分类器,红色圈表示支持向量机

###6.3 非线性支持向量机与核函数

当分类问题是非线性的时候,可以使用非线性支持向量机,其主要特点是利用核技巧。

####6.3.1 核技巧

一、非线性分类问题

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-c8OZvXXm-1663157259365)(//img-blog.csdn.net/20180318215437543?)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-twhw79RX-1663157259365)(//img-blog.csdn.net/20180318215455636?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

非线性问题的解决方法:通过非线性变换,将非线性问题变为线性问题

举例说明:
假设二维平面x-y上存在若干点,其中点集A服从{x,y|x2+y2=1},点集B服从{x,y|x2+y2=9},那么这些点在二维平面上的分布是这样的:
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-5EExwAL1-1663157259365)(//img-blog.csdn.net/20180319171614947?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

蓝色的是点集A,红色的是点集B,他们在xy平面上并不能线性可分,即用一条直线分割( 虽然肉眼是可以识别的) 。采用映射(x,y)->(x,y,x2+y2)后,在三维空间的点的分布为:
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-tq4JZEg3-1663157259365)(//img-blog.csdn.net/201803191716473?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ZnYNtGRO-1663157259366)(//img-blog.csdn.net/20180318220700216?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

用线性分类方法求解非线性问题分为两步:

1)使用一个变换将原空间的数据映射到新空间
2)在新空间用线性分类学习方法从训练数据中学习分类模型

二、核函数的定义

χ \chi χ为输入空间,又设 H H H为特征空间(希尔伯特空间),如果存在一个从 χ \chi χ H H H的映射: ϕ ( x ) = χ → H \phi(x)=\chi \to H ϕ(x)=χH

使得所有的 x , z ∈ χ x,z\in \chi x,zχ,函数 K ( x , z ) K(x,z) K(x,z)满足条件: K ( x , z ) = ϕ ( x ) ⋅ ϕ ( z ) K(x,z)=\phi(x) \cdot \phi(z) K(x,z)=ϕ(x)ϕ(z)

K ( x , z ) K(x,z) K(x,z)称为核函数, ϕ ( x ) \phi(x) ϕ(x)称为映射函数。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-h1R2xwff-1663157259366)(//img-blog.csdn.net/20180318221816344?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

三、核技巧在支持向量机中的应用
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-jXd8ehY3-1663157259366)(//img-blog.csdn.net/20180318222236797?)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-PIWN9NLp-1663157259366)(//img-blog.csdn.net/20180318222259767?)]

####6.3.2 正定核

通常所说的核函数就是正定核函数

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-euCWGPL1-1663157259366)(//img-blog.csdn.net/20180318222631141?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

####6.3.3 常用核函数

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-qKxglRty-1663157259366)(//img-blog.csdn.net/20180318222727404?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

####6.3.4 非线性支持向量分类机

利用核技巧可以将线性分类的学习方法应用到非线性分类问题中去,将线性支持向量机扩展到非线性支持向量机,只需将线性支持向量机对偶形式的内积换成核函数即可

非线性支持向量机:
从非线性分类训练集,通过核函数与软间隔最大化,或凸二次规划(7.95)~(7.97)学习得到的分类决策函数:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-cQVlG4LE-1663157259366)(//img-blog.csdn.net/20180319092341431?)]

称为非线性支持向量, K ( x , z ) K(x,z) K(x,z)是正定核函数。

非线性支持向量机学习算法:
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-kNk0BNP4-1663157259366)(//img-blog.csdn.net/20180319092506825?)]

####6.3.5 编程实现非线性SVM

接下来,我们将使用testSetRBF.txttestSetRBF2.txt进行实验,前者作为训练集,后者作为测试集。

import matplotlib.pylab as plt
import numpy as np

def loadDataSet(fileName):
    """

    :param fileName:
    :return: dataMat, labelMat
    """
    dataMat = []
    labelMat = []
    fr = open(fileName)
    for line in fr.readlines():  # 逐行读取,滤除空格等
        lineArr = line.strip().split('\t')
        dataMat.append([float(lineArr[0]), float(lineArr[1])])  # 添加数据
        labelMat.append(float(lineArr[2]))  # 添加标签
    return dataMat, labelMat


def showDataSet(dataMat,labelMat):
    """
    数据可视化

    :param dataMat: 数据矩阵
    :param labelMat: 数据标签
    :return: 无
    """
    #正样本
    data_plus=[]
    #负样本
    data_minus=[]

    for i in range(len(dataMat)):
        if labelMat[i]>0:
            data_plus.append(dataMat[i])
        else:
            data_minus.append(dataMat[i])
    data_plus_np=np.array(data_plus)
    data_minus_np=np.array(data_minus)
    #正样本散点图
    plt.scatter(np.transpose(data_plus_np)[0],np.transpose(data_plus_np)[1])
    #负样本散点图
    plt.scatter(np.transpose(data_minus_np)[0],np.transpose(data_minus_np)[1])

    plt.show()

if __name__=='__main__':
    dataArr,labelArr=loadDataSet('testSetRBF.txt')
    showDataSet(dataArr,labelArr)



结果:
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-bwQBnDNM-1663157259367)(//img-blog.csdn.net/2018031917420429?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

###6.4 序列最小最优化算法(SMO算法)

支持向量机问题可以转化为求解凸二次规划问题,这样的问题具有全局最优解,并且有许多算法可以用于这个问题的求解,但是当训练样本容量很大时,这些算法往往变得非常低效,以至于无法使用。

1996年,John Platt发布了一个称为SMO的强大算法,用于训练SVM。SM表示序列最小化(Sequential Minimal Optimizaion)。Platt的SMO算法是将大优化问题分解为多个小优化问题来求解的。这些小优化问题往往很容易求解,并且对它们进行顺序求解的结果与将它们作为整体来求解的结果完全一致的。在结果完全相同的同时,SMO算法的求解时间短很多。

SMO算法的目标是求出一系列alpha和b,一旦求出了这些alpha,就很容易计算出权重向量w并得到分隔超平面。

SMO算法的工作原理是:每次循环中选择两个alpha进行优化处理。一旦找到了一对合适的alpha,那么就增大其中一个同时减小另一个。这里所谓的”合适”就是指两个alpha必须符合以下两个条件,条件之一就是两个alpha必须要在间隔边界之外,而且第二个条件则是这两个alpha还没有进进行过区间化处理或者不在边界上。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-zaIcPp5N-1663157259367)(//img-blog.csdn.net/20180319093934247?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

####6.4.1 两个变量二次规划的求解方法

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-P1OzPIEM-1663157259367)(//img-blog.csdn.net/20180319094220390?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-aoK09VtO-1663157259367)(//img-blog.csdn.net/20180319094243430?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-lhN5Fxcx-1663157259367)(//img-blog.csdn.net/20180319094341292?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-zC2wTcc8-1663157259367)(//img-blog.csdn.net/20180319094352262?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

####6.4.2 变量的选择方法

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-gWGtMlMY-1663157259367)(//img-blog.csdn.net/20180319094422324?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-OASc6Utw-1663157259367)(//img-blog.csdn.net/20180319094454871?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-E9QMuPf1-1663157259367)(//img-blog.csdn.net/20180319094510327?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

####6.4.3 SMO算法步骤

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-rAg9gi2H-1663157259368)(//img-blog.csdn.net/20180319094623539?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-WAkbHzrq-1663157259368)(//img-blog.csdn.net/20180319094634427?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

1)步骤一:计算误差:
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-kzyXzakd-1663157259368)(//img-blog.csdn.net/20180319095353254?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

2)步骤二:计算上下界L和H:
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-UQ3elE8D-1663157259368)(//img-blog.csdn.net/20180319095513617?)]

3)步骤三:计算 η \eta η
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-duo5Wq9A-1663157259368)(//img-blog.csdn.net/20180319095559932?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

4)步骤四:更新 α j \alpha _j αj

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-o1HnRZgy-1663157259368)(//img-blog.csdn.net/20180319095720788?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

5)步骤五:根据取值范围修剪 α j \alpha _j αj
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-e5B7zCuh-1663157259368)(//img-blog.csdn.net/20180319100049438?)]

6)步骤六:更新 α i \alpha _i αi
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-EGcfoUEG-1663157259368)(//img-blog.csdn.net/20180319100106565?)]

7)步骤七:更新 b 1 b_1 b1 b 2 b_2 b2
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-MHAfA51W-1663157259369)(//img-blog.csdn.net/20180319100134405?)]

8)步骤八:根据 b 1 b_1 b1 b 2 b_2 b2更新 b b b
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-hkA11Wbs-1663157259369)(//img-blog.csdn.net/20180319100155987?)]

####6.4.4 SMO算法优化

启发选择方式:

在几百个点组成的小规模数据集上,简化版SMO算法的运行是没有什么问题的,但是在更大的数据集上的运行速度就会变慢。简化版SMO算法的第二个α的选择是随机的,针对这一问题,我们可以使用启发式选择第二个α值,来达到优化效果。

下面这两个公式想必已经不再陌生:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-rEoYYh1I-1663157259369)(//img-blog.csdn.net/20180319171235216?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

在实现SMO算法的时候,先计算η,再更新a_j。为了加快第二个α_j乘子的迭代速度,需要让直线的斜率增大,对于α_j的更新公式,其中η值没有什么文章可做,于是只能令:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-5ZjtowKr-1663157259369)(//img-blog.csdn.net/20180319171259300?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

因此,我们可以明确自己的优化方法了:

  • 最外层循环,首先在样本中选择违反KKT条件的一个乘子作为最外层循环,然后用”启发式选择”选择另外一个乘子并进行这两个乘子的优化
  • 在非边界乘子中寻找使得|E_i - E_j|最大的样本
  • 如果没有找到,则从整个样本中随机选择一个样本

####6.4.5 完整版SMO算法

完整版Platt SMO算法是通过一个外循环来选择违反KKT条件的一个乘子,并且其选择过程会在这两种方式之间进行交替:

  • 在所有数据集上进行单遍扫描
  • 在非边界α中实现单遍扫描

非边界α指的就是那些不等于边界0或C的α值,并且跳过那些已知的不会改变的α值。所以我们要先建立这些α的列表,用于才能出α的更新状态。

在选择第一个α值后,算法会通过”启发选择方式”选择第二个α值。

###6.5 使用sklearn构建SVM分类器

在第一篇文章中,我们使用了kNN进行手写数字识别。它的缺点是存储空间大,因为要保留所有的训练样本,如果你的老板让你节约这个内存空间,并达到相同的识别效果,甚至更好。那这个时候,我们就要可以使用SVM了,因为它只需要保留支持向量即可,而且能获得可比的效果。

####6.5.1 Sklearn.svm.SVC

官方手册

sklearn.svm模块提供了很多模型,其中svm.SVC是基于libsvm实现的。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-KFDUD08A-1663157259369)(//img-blog.csdn.net/20180319180410951?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

class sklearn.svm.SVC(C=1.0, kernel=’rbf’, degree=3, gamma=’auto’, coef0=0.0, shrinking=True, probability=False, tol=0.001, cache_size=200, class_weight=None, verbose=False, max_iter=-1, decision_function_shape=’ovr’, random_state=None)

参数说明如下:

  • C:惩罚项,float类型,可选参数,默认为1.0,C越大,即对分错样本的惩罚程度越大,因此在训练样本中准确率越高,但是泛化能力降低,也就是对测试数据的分类准确率降低。相反,减小C的话,容许训练样本中有一些误分类错误样本,泛化能力强。对于训练样本带有噪声的情况,一般采用后者,把训练样本集中错误分类的样本作为噪声。

  • kernel:核函数类型,str类型,默认为’rbf’。可选参数为:

  • ’linear’:线性核函数

  • ‘poly’:多项式核函数

  • ‘rbf’:径像核函数/高斯核

  • ‘sigmod’:sigmod核函数

  • ‘precomputed’:核矩阵

  • precomputed表示自己提前计算好核函数矩阵,这时候算法内部就不再用核函数去计算核矩阵,而是直接用你给的核矩阵,核矩阵需要为n*n的。

  • degree:多项式核函数的阶数,int类型,可选参数,默认为3。这个参数只对多项式核函数有用,是指多项式核函数的阶数n,如果给的核函数参数是其他核函数,则会自动忽略该参数。

  • gamma:核函数系数,float类型,可选参数,默认为auto。只对’rbf’ ,’poly’ ,’sigmod’有效。如果gamma为auto,代表其值为样本特征数的倒数,即1/n_features。

  • coef0:核函数中的独立项,float类型,可选参数,默认为0.0。只有对’poly’ 和,’sigmod’核函数有用,是指其中的参数c。

  • probability:是否启用概率估计,bool类型,可选参数,默认为False,这必须在调用fit()之前启用,并且会fit()方法速度变慢。

  • shrinking:是否采用启发式收缩方式,bool类型,可选参数,默认为True。

  • tol:svm停止训练的误差精度,float类型,可选参数,默认为1e^-3。

  • cache_size:内存大小,float类型,可选参数,默认为200。指定训练所需要的内存,以MB为单位,默认为200MB。

  • class_weight:类别权重,dict类型或str类型,可选参数,默认为None。给每个类别分别设置不同的惩罚参数C,如果没有给,则会给所有类别都给C=1,即前面参数指出的参数C。如果给定参数’balance’,则使用y的值自动调整与输入数据中的类频率成反比的权重。

  • verbose:是否启用详细输出,bool类型,默认为False,此设置利用libsvm中的每个进程运行时设置,如果启用,可能无法在多线程上下文中正常工作。一般情况都设为False,不用管它。

  • max_iter:最大迭代次数,int类型,默认为-1,表示不限制。

  • decision_function_shape:决策函数类型,可选参数’ovo’和’ovr’,默认为’ovr’。’ovo’表示one vs one,’ovr’表示one vs rest。

  • random_state:数据洗牌时的种子值,int类型,可选参数,默认为None。伪随机数发生器的种子,在混洗数据时用于概率估计。

####6.5.2 编写代码

import numpy as np
import operator
from os import listdir
from sklearn.svm import SVC


def img2Vector(filename):
    """
    将32*32的二进制图像转换为1*1024的向量
    :param filename: 文件名
    :return: 返回的二进制图像的1*1024向量
    """
    # 创建1*1024零向量
    returnVect = np.zeros((1, 1024))
    # 打开文件
    fr = open(filename)
    # 按行读取
    for i in range(32):
        # 读取一行数据
        lineStr = fr.readline()
        # 每一行的前32个元素依次添加到returnVect中
        for j in range(32):
            returnVect[0, 32 * i + j] = int(lineStr[j])
    # 返回转换后的1*1024向量
    return returnVect


def handwritingClassTest():
    """
    手写数字分类测试
    :return: 无
    """
    # 测试集的Labels
    hwLabels = []
    # 返回trainingDigits目录下的文件名
    trainingFileList = listdir('E:/python/machine learning in action/My Code/chap 06/trainingDigits')
    # 返回文件夹下文件的个数
    m = len(trainingFileList)
    # 初始化训练的Mat矩阵,测试集
    trainingMat = np.zeros((m, 1024))
    # 从文件名中解析出训练的类别
    for i in range(m):
        # 获得文件的名字
        fileNameStr = trainingFileList[i]
        # 获得分类的数字
        classNumber = int(fileNameStr.split('_')[0])
        # 将获得的类别添加到hwlabels中
        hwLabels.append(classNumber)
        # 将每个文件的1*1024数据存储到trainingMat矩阵中
        trainingMat[i, :] = img2Vector('E:/python/machine learning in action/My Code/chap 06/trainingDigits/%s' % (fileNameStr))

    clf = SVC(C=200, kernel='rbf')
    clf.fit(trainingMat, hwLabels)
    # 返回testDigits目录下的文件列表
    testFileList = listdir('testDigits')
    # 错误检测技术
    errorCount = 0.0
    # 测试数据的数量
    mTest = len(testFileList)
    # 从文件中解析出测试集的类别并进行分类测试
    for i in range(mTest):
        fileNameStr = testFileList[i]
        classNumber = int(fileNameStr.split('_')[0])
        # 获得测试集的1*1024向量,用于训练
        vectorUnderTest = img2Vector(
            'E:/python/machine learning in action/My Code/chap 06/testDigits/%s' % (fileNameStr))
        # 获得预测结果
        classfierResult = clf.predict(vectorUnderTest)
        print("分类返回结果为 %d \t 真实结果为%d " % (classfierResult, classNumber))

        if (classfierResult != classNumber):
            errorCount += 1.0
    print("总共错了%d个数据 \n 错误率为%f%%" % (errorCount, errorCount / mTest * 100))


if __name__ == '__main__':
    handwritingClassTest()

结果:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-fKiyF2Ss-1663157259369)(//img-blog.csdn.net/20180319205121553?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L2ppYW95YW5nd20=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)]

###6.6 SVM的优缺点

优点:

  • 可用于线性/非线性分类,也可以用于回归,泛化错误率低,也就是说具有良好的学习能力,且学到的结果具有很好的推广性。
  • 可以解决小样本情况下的机器学习问题,可以解决高维问题,可以避免神经网络结构选择和局部极小点问题。
  • SVM是最好的现成的分类器,现成是指不加修改可直接使用。并且能够得到较低的错误率,SVM可以对训练集之外的数据点做很好的分类决策。

缺点:

  • 对参数调节和和函数的选择敏感。
  • 51
    点赞
  • 340
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 14
    评论
### 回答1: 机器学习实战Python基于支持向量机(SVM)是一种强大的分类器算法。SVM是一种监督学习方法,可以用于解决二分类和多分类问题。 SVM的基本思想是找到一个最佳的超平面,将数据分割成不同的类别。超平面被定义为在n维空间中具有n-1维的子空间。这个子空间可以将不同类别的数据点分开,并且尽可能地最大化边界。这就意味着SVM在分类时尽量避免误分类,并且对于新的未知数据具有较好的泛化能力。 在Python中,我们可以使用scikit-learn库中的SVM实现机器学习任务。首先,我们需要导入必要的库和数据集。然后,我们可以对数据集进行预处理,如特征缩放和数据划分。接下来,我们可以创建一个SVM分类器,并使用训练数据进行模型的训练。训练完成后,我们可以使用测试数据进行预测,并评估模型的性能。 SVM还有一些重要的参数需要调节,如C和gamma。C表示惩罚项的权重,用于控制分类器的错误率和边界的平衡。较大的C值会减小错误率,但可能导致边界过拟合。gamma表示径向基函数核的参数,影响分类器的决策边界的灵活性。较大的gamma值会导致边界更加精确地拟合训练数据,但可能导致过拟合。 总的来说,机器学习实战Python基于支持向量机(SVM)是一个强大的分类器算法,可以用于解决二分类和多分类问题。在实际应用中,我们需要注意调节参数,使得分类器具有良好的泛化能力。 ### 回答2: 机器学习实战是一本非常实用的书籍,其中详细介绍了如何使用Python编程语言基于支持向量机(SVM)进行机器学习实践。 支持向量机是一种强大的监督学习算法,可以用于解决分类和回归问题。该算法通过寻找一个最优的超平面来分割样本空间,使得不同类别的样本尽可能远离超平面。实际上,SVM通过最大化支持向量与超平面的距离,来确保分类的准确性和泛化能力。 在书籍中,作者通过经典的例子和详细的代码示例,展示了如何应用Python编程语言和scikit-learn库来构建和训练SVM模型。读者将学会如何准备数据集,进行特征选择和数据预处理,选择合适的SVM参数以及评估模型的性能。 此外,书中还强调了交叉验证、网格搜索和模型调优等重要概念。这些概念是整个机器学习过程中不可或缺的一部分,能够帮助我们提高模型的准确性和可靠性。 机器学习实战还提供了丰富的示例和应用,涵盖了多个领域,如文本分类、手写数字识别和人脸识别等。通过这些实例,读者可以深入理解SVM在实际问题中的应用。 总而言之,机器学习实战是一本非常实用的书籍,提供了丰富的例子和代码,使读者能够快速上手并应用SVM算法解决实际问题。无论是对于初学者还是有一定机器学习经验的人来说,这本书都是一本值得推荐的学习资料。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 14
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

呆呆的猫

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值