支持向量机SVM(Support Vector Machine)算法初解

本文介绍了支持向量机(SVM)算法的基本原理,重点解析了SVM如何通过最大化间隔(margin)来优化分类模型,并详细探讨了函数距离与几何距离的区别。通过拉格朗日乘数法和KKT条件,阐述了SVM的对偶优化问题,展示了从原始问题到对偶问题的转换过程,解释了为何该算法被称为“支持向量机”。
摘要由CSDN通过智能技术生成

其实SVM在去年的时候就接触到了,只是一直都属于模模糊糊的状态,最近跟着老板一起上机器学习的课,有种豁然开朗的感觉,于是乘机写下这篇博客。

每个算法都有一个优化的准则,SVM也不例外,他运用的是最大化margin的准则,如图所示:

                                                                  

这么多的红线都可以将样本分类,但是哪一条更好了,这就依赖于我们选取的准则。最大化magin的目标如上图2,使两类样本到分类面的距离尽可能的大。

说到距离,就要提到SVM里面用到的两个距离的概念:函数距离,几何距离。几何距离很直观,也就是我们上面说的margin,即点到直线的距离。根据点到直线的距离公式,得到

几何距离为下图1,函数距离为下图2。

                         

下面要说一下这两个公式的性质:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值