支持向量机(SVM算法)和软间隔支持向量机概述

支持向量机(SVM算法)和软间隔支持向量机概述

(01)决策边界:实现雷区与边界距离最大化(雷区就是边界上的点,找large margin)

在这里插入图片描述

(02)距离的计算:

[外链图片转存失败(img-hvd3o1Bl-1565427833731)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\2.jpg)]

注:

第一步:构造超平面关系式:WTx+b=0得到WT*(x"-x’)=0,即W⊥(x’’-x’)。(W为向量,采用转置便于计算)

第二步:dist(x,h)即为(x-x’)在W的单位方向上映射的模长

(03)数据标签定义:

Y为样本的类别:

当X为正例的时候Y=+1,当X为负例的时候Y=-1。

引入决策方程:

在这里插入图片描述∮(x)为x的求和变换。

然后推导得到yi*y(xi)>0,过程如图:
[外链图片转存失败(img-tdy1nCr4-1565427833731)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\4.jpg)]

目的:去除 [外链图片转存失败(img-dBwfi5Qh-1565427833731)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\5.jpg)]括号外面的绝对值。

得到优化后的distance(x,b,w)距离公式

[外链图片转存失败(img-VHzOcwUb-1565427833731)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\6.jpg)]

优化目标:

[外链图片转存失败(img-kUlS3lPW-1565427833732)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\7.jpg)]

即:使离边界最近的点到边界的距离最大化。

通过放缩,使 [外链图片转存失败(img-IRA5qq5f-1565427833732)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\8.jpg)]的值≧1,所以min(yi(W^T*∮(xi)+b))=1

最终的目标函数:

内层函数已实现最小化,后面即对[外链图片转存失败(img-heNn1O31-1565427833732)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\10.jpg)]进行最大化求解。

(04)目标函数的变换处理:

目标函数max→min转换:

[外链图片转存失败(img-QF7Zb83a-1565427833732)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\11.jpg)]转换为 [外链图片转存失败(img-9TnDl7sV-1565427833732)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\12.jpg)]

约束条件为[外链图片转存失败(img-53fzH2He-1565427833733)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\13.jpg)]

采用拉格朗日乘子法求解:

拉格朗日乘子法——不等式约束条件下的求解转换:

[外链图片转存失败(img-LXV3mvVG-1565427833733)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\14.jpg)]

对目标函数和约束条件进行整体的变换:

将原约束条件 : [外链图片转存失败(img-X8M8rU1t-1565427833733)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\15.jpg)]

转换为 : [外链图片转存失败(img-y4xuQF0c-1565427833733)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\16.jpg)]

因此将原式:[外链图片转存失败(img-mzoIOGsv-1565427833734)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\17.jpg)]

变换为拉格朗日乘子式:

[外链图片转存失败(img-Yhj8bdOE-1565427833734)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\18.jpg)]

而目标为:

[外链图片转存失败(img-XZiIJZe9-1565427833734)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\21.jpg)]

(05)SVM求解:

于是根据对偶性质,进行转换:

[外链图片转存失败(img-jvivsN9Q-1565427833735)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\21.jpg)]进行转换为[外链图片转存失败(img-cTk50SLF-1565427833735)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\22.jpg)]

第一步:对Min L(w,b,α)极小值求解:

然后 [外链图片转存失败(img-S9SsrAla-1565427833736)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\23.jpg)]分别对w,b进行求偏导,求极小值点

[外链图片转存失败(img-T2l7DZok-1565427833736)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\24.jpg)]

并将等式带回 [外链图片转存失败(img-puRZseZs-1565427833736)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\25.jpg)] 进行进一步化简

[外链图片转存失败(img-6UYKyEJQ-1565427833737)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\26.jpg)]

当前状态:完成对 [外链图片转存失败(img-aGTUqAPu-1565427833738)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\25.jpg)]的求解工作!

第二步:对Max L(w,b,α)进行极大值求解:

[外链图片转存失败(img-m2yF3qWw-1565427833740)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\28.jpg)]

转换为: [外链图片转存失败(img-FaqGlIUq-1565427833740)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\29.jpg)]

[外链图片转存失败(img-YxESSk9T-1565427833740)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\30.jpg )]。(最终SVM计算式及约束条件)

KTT条件转换解释:

[外链图片转存失败(img-D0Bpfmbs-1565427833740)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\20.jpg)]

[外链图片转存失败(img-30q06Qql-1565427833741)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\19.jpg)]

(06)SVM实例:

数据为:
在这里插入图片描述[外链图片转存失败(img-DNduZu9v-1565427833741)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\31.jpg)]

由约束条件 [外链图片转存失败(img-iAdBAQYV-1565427833741)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\33.jpg)]得到约束条件式为:[外链图片转存失败(img-zhDywxPL-1565427833742)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\34.jpg)]

然后根据 [外链图片转存失败(img-Ws2GcY4Y-1565427833742)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\35.jpg)]对L(α,x,y)进一步计算:

[外链图片转存失败(img-8vKG67dk-1565427833742)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\36.jpg)]

结合 [外链图片转存失败(img-wSnuYtZY-1565427833742)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\37.jpg)]进行最终的化简:

[外链图片转存失败(img-2xUUNC4u-1565427833743)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\38.jpg)]注:化简式形式不唯一

然后对α1,α2求偏导,得到极小值点:[外链图片转存失败(img-iHvb3J57-1565427833743)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\40.jpg)],但不符合 [外链图片转存失败(img-wdm9HRhC-1565427833743)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\41.jpg)]的条件,舍去结果。

根据函数的极值分布特点,所以极值点在边界点(α1=0,或α2=0处):

将α1=0带回原式对α2求极值点得到α2=-2/13(不符合舍去);将α2=0带回原式对α1求极值点得到α1=0.25(符合条件);

于是最终(α1,α2,α3)等于(0.25,0,0.25)。

[外链图片转存失败(img-cD6uiS5l-1565427833743)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\42.jpg)]计算w

w=1/4x1x(3,3)+1/4x(-1)x(1,1)=(1/2,1/2)

在这里插入图片描述计算b

b=1-(1/4x1x18+1/4x(-1)x6)=-2(这一步计算,我自己也不懂,希望会的评论教我一下。)

最后得到最终的平面方程:

0.5x1+0.5x2-2=0

支持向量:真正发挥作用的数据点,α不为0的点(x1,x3)。

(07)软间隔(soft-margin):

如图:

[外链图片转存失败(img-Zzinklfq-1565427833744)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\48.jpg)]

注:soft-margin便于边界的泛化,具有一定的松弛度,更为合理。

加入松弛因子:

[外链图片转存失败(img-GupSGeFu-1565427833744)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\44.jpg)]

新的目标函数:

[外链图片转存失败(img-E3vzaqDj-1565427833744)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\45.jpg)]

注:当C↑,ξi必须减小,即松弛度降低,对分类准确要求更加严格。

当C↓,ξi可大可小,对分类准确要求更加放松。

新的拉格朗日乘子式:

[外链图片转存失败(img-WWLfs4GS-1565427833745)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\46.jpg)]

新的最终求解式及约束条件:

[外链图片转存失败(img-TfIFhrr3-1565427833745)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\47.jpg)]

(08)核函数变换:

提升维度-解决低维不可分问题:

[外链图片转存失败(img-BQ31kwoQ-1565427833745)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\49.jpg)]

应用实例:

[外链图片转存失败(img-p02Qni7U-1565427833746)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\50.jpg)]
附采用高斯函数映射示意图:

[外链图片转存失败(img-6UbIBmOK-1565427833746)(C:\Users\爱拼才会赢\Desktop\python\支持向量机算法\图片\51.jpg)]

附软间隔向量机详解博客链接:

   https://blog.csdn.net/JasonDing1354/article/details/45206985
  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
支持向量机(Support Vector Machine,SVM)是一种用于分类和回归分析的监督学习算法。其理论基础可以从以下几个方面进行解释: 1. 最大间隔分类器:SVM的目标是找到一个能够将不同类别的样本点分开的超平面。这个超平面应该最大化两个不同类别样本点之间的间隔,也就是最大化两个类别支持向量(距离超平面最近的样本点)之间的距离。 2. 核函数:SVM算法可以通过使用核函数将输入空间映射到高维特征空间,进而解决非线性可分的问题。常用的核函数有线性核、多项式核和高斯核等。 3. 优化问题:SVM的目标是求解一个凸二次规划问题,通过最小化目标函数来找到最优的超平面。优化问题的目标函数包括正则化项和经验风险项,其中正则化项用于控制模型的复杂度,经验风险项用于使分类误差最小化。 4. 对偶问题:SVM的优化问题可以通过对偶问题进行求解。对偶问题可以转化为一个只与支持向量相关的表达式,从而减少了计算的复杂度。 5. 间隔与惩罚因子:SVM可以允许一定程度的样本点分类错误,即存在一些样本点位于超平面的误分类区域内。通过引入惩罚因子,SVM可以在最大化间隔的同时,尽量减小误分类点的数量。 总的来说,SVM的理论基础包括最大间隔分类器、核函数、优化问题、对偶问题以及间隔与惩罚因子等。这些理论基础使得SVM成为了一个强大的分类算法,在实际应用中取得了广泛的成功。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Super__Tiger

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值