深度学习*学习笔记----支持向量机SVM(3)

1、机器学习的一般框架
训练集 => 提取特征值 => 结合一定的算法(分类器:比如决策树,KNN)=> 得到结果
2、SVM
SVM 寻找区分两类的超平面(hyper plane),使得边际(margin)最大
超平面到一侧最近点的距离等于另一侧最近点的距离,两侧的两个超平面平行
3、线性可区分(linear separable)和线性不可区分(linear inseparable)
4、定义与公式建立
超平面可以定义为:
W*X + b = 0
W : weight vector
W={w1,w2,w3,w4,…,wn} , n是特征值的个数
X : 训练实例
B : bias
所有坐落在边际两边的超平面上的被称作“支持向量(support vector)”
5、应用
import numpy as np
import pylab as pl #画图模块
from sklearn import svm

np.random.seed(0)#固定输出值
X=np.r_[np.random.randn(20,2)-[2,2], np.randn(20,2) + [2,2]]

通过正态分布随机产生一个二维矩阵,均值为2,方差为2

Y=[0]*20 + [1]*20

归类前20个点归类为0,后20为1

clf = svm.SVC(kernel=’learn’)
clf.fit(X,Y)

w = clf.coef_[0]
a = -w[0]/w[1]
xx = np.linspace(-5,5)
yy = a * xx - (clf.intercept_[0])/ w[1]

b = clf.support_vectors_[0]
yy_down = a * xx + (b[1] - a*b[0])
b = clf.support_vectors_[-1]
yy_up = a * xx + (b[1] - a*b[0])

print (“w: “,w)
print (“a: “,a)
print (“support_vectors_: “,clf.support_vectors_)
print (“clf.coef_: “, clf.coef_)

pl.plot (xx,yy,’k–’)
pl.plot (xx,yy_down,’k–’)
pl.plot (xx,yy_up,’k–’)

pl.scatter(clf.support_vectors_[:, 0],clf.support_vectors_[:,1],
s=80, faceclors = ‘none’)
pl.scatter(X[:,0],X[:,1], c=y, cmap=pl.cm.Paired)

pl.axis(‘tight’)
pl.show()

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值