【机器学习的一些问题】经典算法之支持向量机

支持向量机Support Vector Machine:数据/分类面/优化/核映射/分类超平面

 

对于任意线性可分的两组点,它们在SVM的分类超平面上的投影点都是线性不可分的。为什么?

  • 极端假设。二维空间只存在两个点,那么它们的分类超平面就是两点连线中垂线,它们的投影点显然重合于中垂线与连线的交点。
  • 反证法。假设有两组点,然后假设它们在分类超平面的投影点线性可分,那么很显然这个分类超平面并不是最优的,与最优解矛盾。
  • 详细的证明。推导公式发现,SVM的分类结果仅依赖于支持向量
  • 巧用凸优化理论中的超平面分离定理Separating Hyperplane Theorem,SVM求得的超平面实际上就是两个凸包距离最短的两点连线的中垂线。而由于凸包的点要不是样本点,要不是样本点的连线,因此两个凸包距离最短的两个点情况就存在3种可能性。简略画图,发现无论哪种情况下,两类点的投影均是线性不可分的。

 

待补充:

SMO算法

SVM训练误差为零诸多情况

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值