SVM算法(学习笔记)

SVM:支持向量机,是监督的学习模型,常见的分类方法。
监督学习:事先对数据打上标签,机器就知道数据属于哪个分类。
无监督学习:数据没有分类标签
SVM计算就是找到超平面的过程,超平面就是SVM分类器。
分类间隔:极限位置到最优决策面之间的距离
SVM就是求解最大分类间隔的过程。

硬间隔:完全分类准确
软间隔:允许一定量的样本分类错误
非线性SVM:核函数的选择就是影响SVM最大的变量。
核函数:将原有的样本空间通过核函数投射到一个高维的空间中,变得线性可分。

SVM既可以做回归(SVR和LinearSVR),也可以做分类器(SVC和LinearSVC)
LinearSVC:线性分类器,处理线性可分的数据,只能使用线性核函数
SVC:非线性的数据,既可以使用到线性核函数,也能使用到高维的核函数

SVC 的构造函数:model = svm.SVC(kernel=‘rbf’, C=1.0, gamma=‘auto’),这里有三个重要的参数 kernel、C 和 gamma。kernel 代表核函数的选择,它有四种选择,只不过默认是 rbf,即高斯核函数。
linear:线性核函数
poly:多项式核函数
rbf:高斯核函数(默认)
sigmoid:sigmoid 核函数
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值