SVM学习笔记及sklearn实现

一:SVM的基本原理:
SVM用于进行二分类问题,对于一组二分类训练集,   x_i \in \mathbb{R}^p , i=1,..., n, y \in \{1, -1\}^n;SVM求解如下的优化问题
\min_ {w, b, \zeta} \frac{1}{2} w^T w + C \sum_{i=1}^{n} \zeta_i \textrm {subject to } & y_i (w^T \phi (x_i) + b) \geq 1 - \zeta_i,\ & \zeta_i \geq 0, i=1, ..., n
注:该问题目标函数经过(1)距离最大到w^2最小;(2)对于软间隔问题,加松弛因子 ,其中C为惩罚因子,越大代表对于离群点越重视,当C无穷大,则代表为硬间隔情况。(3) 表示原空间已经进行了空间升维。(4)其中的 为对应每一个样本的松弛因子,(slack variables)其原型是集中损失函数,包括【0/1损失函数,hinge损失,指数损失,对率损失】其中hinge损失效果较好。
以上问题是二次规划问题,可以通过拉格朗日乘子法将其转化为一个对偶问题,

注:(1)C是一个上界(2)Q是正对称矩阵 , 是核函数(3)以上需要满足KKT条件。

二:sk-learn实现

1.基本实现
>>> from sklearn import svm
>>> X = [[0, 0], [1, 1]]
>>> y = [0, 1]
>>> clf = svm.SVC()
>>> clf.fit(X, y)
SVC(C=1.0, cache_size=200, class_weight=None, coef0=0.0,    decision_function_shape=None, degree=3, gamma='auto', kernel='rbf',    max_iter=-1, probability=False, random_state=None, shrinking=True,    tol=0.001, verbose=False)

2.显示所得支持向量
&g
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值