python实现支持向量机SVM

支持向量机

支持向量机有两种:SVC,支持向量分类,用于分类问题;SVR,支持向量回归,用于回归问题。

线性支持向量机(Linear SVMs):用一个非常有名的用于分类问题的数据集:鸢尾花数据集。它是基于鸢尾花的花萼的长度和宽度进行分类的。我们只用其中两维特征,这能够方便可视化。

  • kernel="linear"(线性核函数)给了我们线性的决策边界:两类之间的分离边界是直线。
  • 多分类的工作方式就是"one versus one" :在任意两类样本之间设计一个SVM,因此k个类别的样本就需要设计k(k-1)/2个SVM。当对一个未知样本进行分类时,最后得票最多的类别即为该未知样本的类别。
  • 线性支持向量分类器(LinearSVC):对于线性核函数,有一个新的对象LinearSVC ,它使用了不同的算法。在某些数据集上运行地更快(比如稀疏数据集,文本挖掘就是典型的例子)。它对于多分类采用的是"one versus all"策略。
  • 支持向量:就是最靠近分离边界的样本点。支持向量机的工作方式就是找到这些支持向量,它们被认为是在二分类问题中最具代表性的样本点。
  • 为了更方便的可视化,我们选择二分类问题,也就是只考虑鸢尾花数据集中的1类和2类样本。这两类不是线性可分的
  • 正则化 :只考虑支持向量其实就是一种正则化的形式。实际上,它强迫模型在处理样本特征的时候变得更加简单。 This regularization can be tuned with the C parameter:
  • 正则项可以通过调整系数 C 来决定:
    • 小的C值:将会有很多支持向量。决策边界=类别A的平均值-类别B的平均值
    • 大的C值:将会有较少的支持向量。决策边界是被大多数支持向量所决定
  • 核方法

  • 采用核方法,能够很方便地产生非线性分类边界。

  • linear,线性核,会产生线性分类边界。一般来说它的计算效率最高,而且需要数据最少。
  • poly ,多项式核,会产生多项式分类边界。
  • rbf,径向基函数,也就是高斯核,是根据与每一个支持向量的距离来决定分类边界的。它的映射到无线维的。它是最灵活的方法,但是也需要最多的数据。
import numpy as np
from sklearn import svm
import pylab as pl
from sklearn import datasets

svc = svm.SVC(kernel='linear')
# 鸢尾花数据集是sklearn自带的。
irics = datasets.load_iris()#irics为字典

#取出前两个特征
irics_feature = irics['data'][:,:2]
irics_target = irics['target']

#基于这些特征和目标训练支持向量机
#svc.fit(irics_feature,irics_target)

#将预测结果可视化
from matplotlib.colors import ListedColormap
# 因为鸢尾花是3分类问题,我们要对样本和预测结果均用三种颜色区分开。
camp_light =ListedColormap(['#FFAAAA', '#AAFFAA', '#AAAAFF'])
camp_bold = ListedColormap(['#FF0000', '#00FF00', '#0000FF'])
pl.figure()
def plot_estimater(estimator,X,y):
    '''
    这个函数的作用是基于分类器,对预测结果与原始标签进行可视化。
    '''
    estimator.fit(X,y)
    # 确定网格最大最小值作为边界
    x_min,x_max = X[:,0].min()-.1,X[:,0].max()+.1
    y_min,y_max = X[:,1].min()-.1,X[:,1].max()+.1
    #产生网格节点
    #linspace作用为在区间[x_min,x_max]产生100个元素的数列
    xx,yy = np.meshgrid(np.linspace(x_min,x_max,100),np.linspace(y_min,y_max,100))
    # 基于分离器,对网格节点做预测
    #np.c_[xx.ravel(),yy.ravel()]相当于产生一个坐标
    Z = estimator.predict(np.c_[xx.ravel(),yy.ravel()])
    #对预测结果上色,维度保持一致
    Z=Z.reshape(xx.shape)
   
    pl.pcolormesh(xx,yy,Z,cmap=camp_light)
    # 同时对原始训练样本上色
    pl.scatter(X[:,0],X[:,1],c=y,cmap=camp_bold)
    pl.axis('tight')
    pl.axis('off')
    pl.tight_layout()
    
#plot_estimater(svc,irics_feature,irics_target)
#plot_estimater(svm.LinearSVC(), irics_feature,irics_target)

X,y = irics_feature[np.in1d(irics_target,[1,2])],irics_target[np.in1d(irics_target,[1,2])]
'''
plot_estimater(svc,X,y)
pl.scatter(svc.support_vectors_[:, 0], svc.support_vectors_[:, 1], s=80, facecolors='none', zorder=10)

svc=svm.SVC(kernel='linear',C=1e3)
plot_estimater(svc,X,y)

svc=svm.SVC(kernel='linear',C=1e-3)
plot_estimater(svc,X,y)
'''
svc = svm.SVC(kernel='linear')
plot_estimater(svc, X, y)
pl.scatter(svc.support_vectors_[:, 0], svc.support_vectors_[:, 1], s=80, facecolors='none', zorder=10)
pl.title('Linear kernel')
pl.show()

svc=svm.SVC(kernel = 'poly',degree=4)
plot_estimater(svc, X, y)
pl.title('poly kernel')
pl.show()

svc=svm.SVC(kernel = 'rbf',gamma=1e2)
plot_estimater(svc, X, y)
pl.title('rbf kernel')
pl.show()


     


 

  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值