python实现svm源程序_python实现SVM

本文介绍了支持向量机(SVM)的基本概念、优缺点,并详细讲解了如何使用Python的sklearn库实现SVM进行二分类和多分类任务。SVM在高维空间中表现出色,但当特征数量远大于样本数量时效果不佳。文章通过代码示例展示了SVC、NuSVC、LinearSVC的使用,并探讨了SVM的多分类策略,包括一对一和一对多方法。最后,通过IRIS数据集演示了不同核函数的SVM分类效果。
摘要由CSDN通过智能技术生成

一、概述

支持向量机(SVM)是一系列可用于分类、回归和异常值检测的有监督学习方法。

优点:

在高维空间中行之有效。

当维数大于样本数时仍然可用。

在决策函数中只使用训练点的一个子集(称为支持向量),大大节省了内存开销。

用途广泛:决策函数中可以使用不同的核函数。提供了一种通用的核,但是也可以指定自定义的核。

劣势:

如果特征数量远大于样本数量,则表现会比较差。

SVM不直接提供概率估计。这个值通过五折交叉验证计算,代价比较高

二、分类

要在数据集上进行多类别分类,可以使用SVC,NuSVC和LinearSVC这三个类。 SVC和NuSVC两种方法类似,但是接受的参数有细微不同,而且底层的数学原理不一样。另一方面,LinearSVC是对支持向量分类的另一种实现,使用了线性核。注意LinearSVC不接受关键字kernel,因为核被预设为是线性的。其与SVC和NuSVC相比还缺少了一些成员,如support_。

和其它分类器一样,SVC,NuSVC和LinearSVC接受两个数组:大小为[n_samples, n_features]的数组X,包含训练样本;以及大小为[n_samples]的数组y,包含类别标签(以字符串类型或整型存储)。

二分类:

sklearn

sklearn svm

(,sklearn.)

X = [[, ], [, ],[-,-]]

y = [,,]

clf = svm.SVC()

(clf.fit(X, y))

result=clf.predict([[, ],[,-]])

(result)

(clf.support_vectors_)

(clf.support_ )

(clf.n_support_)

输出:

sklern version: 0.18.1

SVC(C=1.0, cache_size=200, class_weight=None, coef0=0.0,

decision_function_shape=None, degree=3, gamma='auto', kernel='rbf',

max_iter=-1, probability=False, random_state=

  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值