SVM原理及在分类和回归预测中的python代码实现

注: 本blog是个人学习笔记记录,如有错误,欢迎指出,以供学习进步!,再次非常感谢!


说起SVM,应该是机器学习中非常典型的算法,但理解也是比较难的,因此直接看博主july的《支持向量机通俗导论(理解SVM的三层境界)》https://www.cnblogs.com/v-July-v/archive/2012/06/01/2539022.html, 讲的非常全面和细致,看完之后基本上就理解了。

但还是要说几点注意事项:
(1)支持向量机它输出的不是分类概率,而是一个分类
y = w T x + b y = w^{T}x+b y=wTx+b

如果y>0 ,则是正分类,反之是负分类

看完理论,感觉非常全面和复杂,但是,我们终究要回到应用上,也不用重复造轮子,我们直接使用sklearn库,它已经帮我们封装好了。svm可以解决两类问题:分类,回归

(1)分类
注:使用了SVC

import numpy as np
from sklearn import svm

X = np.array([[-1, -1], [-2, -1], [1, 1], [2, 1]])
y = np.array([1, 1, 2, 2])
clt = svm.SVC()
clt.fit(X, y)

print clt.predict([[-0.8, -1]])
# /usr/bin/python2.7 /home/SVM/SVM.py
# [1]
# Process finished with exit code 0

(2)回归

其实sklearn 已经分装的特别好,这里对于回归调用了不同给的核,使用改了SVR,

from sklearn import svm
X = [[0, 0], [2, 2]]
y = [0.5, 2.5]
clf = svm.SVR()
clf.fit(X, y)
print clf.predict([[1, 1]])

# [ 1.5]

后续继续完善…

参考文献:
[1].http://scikit-learn.org/stable/modules/svm.html#svm-regression
[2].http://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html
[3].https://www.cnblogs.com/v-July-v/archive/2012/06/01/2539022.html

  • 4
    点赞
  • 57
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

@RichardWang

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值