【sklearn第十讲】支持向量机之回归篇

机器学习训练营——机器学习爱好者的自由交流空间(入群联系qq:2279055353)

回归

支持向量分类的方法能被推广到解决回归问题,称为支持向量回归。由支持向量分类产生的模型仅依赖训练数据的子集,因为创建模型的代价函数并不考虑超过边界的训练点。类似地,由支持向量回归产生的模型仅依赖训练数据的子集,因为创建模型的代价函数忽略任何接近模型预测的训练数据。支持向量回归有三个不同的执行版本:SVR, NuSVR, LinearSVR. LinearSVR执行速度比SVR要快,但只提供线性核。fit方法取X, y作为输入参数,这里,y取浮点值而不是分类的整数值。

from sklearn import svm
X = [[0, 0], [2, 2]]
y = [0.5, 2.5]
clf = svm.SVR()
clf.fit(X, y)

这里写图片描述

clf.predict([[1, 1]])

这里写图片描述

异常检测

One-class SVM可以被用于异常检测(novelty detection), 即,给定一个样本集,检测该集的灵活边界,以便将新的数据点归类是否属于这个集合。类OneClassSVM执行之。这是一个典型的无监督学习,所以fit方法只有一个数组X作为输入,并没有类标签。
这里写图片描述

核函数

可以使用以下的核函数:

  • linear: &lt; x , x ′ &gt; &lt;x, x&#x27;&gt; <x,x>

  • polynomial: ( γ &lt; x , x ′ &gt; + r ) d (\gamma&lt;x, x&#x27;&gt;+r)^d (γ<x,x>+r)d, d d d 由参数degree, r r r 由coef0指定

  • rbf: exp ⁡ ( − γ ∥ x − x ′ ∥ 2 ) \exp(-\gamma\|x-x&#x27;\|^2) exp(γxx2), γ \gamma γ 由参数gamma指定,且必须是正的

  • sigmoid: tanh ⁡ ( γ &lt; x , x ′ &gt; + r ) \tanh(\gamma&lt;x, x&#x27;&gt;+r) tanh(γ<x,x>+r), r

  • 5
    点赞
  • 49
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值