支持向量机

Support Vector Machine
要解决的问题:什么样的决策边界才是最好的呢?
支持向量机
特征数据本身如果就很难分,怎么办呢?
计算复杂度怎么样?能实际应用吗?
目标:基于上述问题对SVM进行推导
Support Vector Machine
决策边界:选出来离雷区最远的(雷区就是边界上的点,要Large Margin)
支持向量机
距离的计算
支持向量机
数据标签定义
数据集:(X1,Y1)(X2,Y2)… (Xn,Yn)
支持向量机
Y为样本的类别: 当X为正例时候 Y = +1 当X为负例时候 Y = -1
决策方程: (其中 是对数据做了变换,后面继续说)
=> =>
优化的目标
通俗解释:找到一个条线(w和b),使得离该线最近的点(雷区)
能够最远
支持向量机
将点到直线的距离化简得:
(由于 所以将绝对值展开原始依旧成立)
目标函数
放缩变换:对于决策方程(w,b)可以通过放缩使得其结果值|Y|>= 1
=> (之前我们认为恒大于0,现在严格了些)
支持向量机
优化目标:
由于 ,只需要考虑 (目标函数搞定!)
目标函数
当前目标:????,?
1
||?||
,约束条件:
支持向量机
常规套路:将求解极大值问题转换成极小值问题=>????,?
1
2
?2
如何求解:应用拉格朗日乘子法求解
拉格朗日乘子法
带约束的优化问题:
支持向量机
原式转换:
我们的式子:
(约束条件不要忘: )
SVM求解
分别对w和b求偏导,分别得到两个条件(由于对偶性质)
支持向量机
->
对w求偏导:
对b求偏导:
SVM求解
带入原始:
其中
完成了第一步求解 ,
支持向量机
SVM求解
继续对ɑ求极大值:
条件:
支持向量机
极大值转换成求极小值:
条件:
SVM求解实例
数据:3个点,其中正例 X1(3,3) ,X2(4,3) ,负例X3(1,1)
支持向量机
求解:
约束条件:
SVM求解实例
原式: ,将数据代入
由于: 化简可得:
支持向量机
SVM求解实例
分别对ɑ1和ɑ2求偏导,偏导等于0可得:
(并不满足约束条件 ,所以解应在边界上)
带入原式=-0.153 (不满足约束)
带入原式=-0.25 (满足啦!)
最小值在(0.25,0,0.25)处取得
支持向量机
SVM求解实例
将ɑ结果带入求解
? =
1
4
∗ 1 ∗ 3,3 +
1
4
∗ −1 ∗ 1,1 =
1
2
,
1
2
? = ?? − ?=1
? ?? ?? (?? ??) = 1 −
1
4
∗ 1 ∗ 18 +
1
4
∗ −1 ∗ 6 = −2
支持向量机
平面方程为:0.5?1 + 0.5?2 − 2 = 0
SVM求解实例
支持向量:真正发挥作用的数据点,ɑ值不为0的点
支持向量机
soft-margin
软间隔:有时候数据中有一些噪音点,如果考虑它们咱们的线就不太好了
支持向量机
之前的方法要求要把两类点完全分得开,这个
要求有点过于严格了,我们来放松一点!
为了解决该问题,引入松弛因子
soft-margin
新的目标函数:
支持向量机
当C趋近于很大时:意味着分类严格不能有错误
当C趋近于很小时:意味着可以有更大的错误容忍
C是我们需要指定的一个参数!
soft-margin
拉格朗日乘子法:
约束: 同样的解法:
支持向量机
低维不可分问题
核变换:既然低维的时候不可分,那我给它映射到高维呢?
支持向量机
低维不可分问题
目标:找到一种变换的方法,也就是 (?)
支持向量机
低维不可分问题
支持向量机
Support Vector Machine
高斯核函数:
线性核函数 高斯和函数
支持向量机

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值