支持向量机原理(超详细)

支持向量机(SVM)是机器学习算法之一,是二分类算法。给定一组训练样本集,如图,样本数据集是二维的,分散在平面上,需要找到一条直线将数据集分割开。可以分开的直线有很多,我们要找到其中泛化能力最好,鲁棒性最强的直线。这是在平面上的点,如果是在三维空间中,则需要找到一个平面;如果是超过三维以上的维数,则需要找到一个超平面。
在这里插入图片描述在这里插入图片描述
超平面的表达式为:
在这里插入图片描述
原理举例:wT取(w1,w2),x取(x1,x2)T, 则原式得 w1x1+w2x2+b=0 与传统直线 Ax+By+c=0 方程式
相同,由二维三维空间推到更高维平面的一般式即为上式。
W:为平面法向量,决定了超平面的方向
b: 决定了超平面距原点的距离
法向量与样本属性的个数、超空间维数相同。在超空间中我们要求的参数就是决定超平面的W和b值。

在超空间中任意一点x到超平面的距离为:
在这里插入图片描述
我们可以由特殊到一般的理解一下这个式子,如果在二维空间即平面上,点到直线的距离为:
在这里插入图片描述
式子中A,B,C是直线的参数也就是W,x0和y0是x的坐标,这样r式是不是就好理解了,这个距离是

支持向量机是一种经典的机器学习算法,其核心思想是通过寻找一个最优的平面来对数据进行分类。以下是支持向量机原理介绍: 1. 线性可分情况下的支持向量机:在二分类问题中,假设我们有一组数据集,其中一些数据点被标记为正样本,另一些数据点被标记为负样本,并且这些数据点是线性可分的。那么,支持向量机的目标就是寻找一个平面来将正样本和负样本分开,并且使得平面与最靠近它的正样本和负样本之间的距离最大。这些最靠近平面的数据点被称为支持向量,因为它们对于分类平面的位置有重要的影响。 2. 线性不可分情况下的支持向量机:在实际应用中,数据通常是线性不可分的。为了解决这个问题,我们可以将数据映射到高维空间中,使得数据在高维空间中是线性可分的。但是,这种高维映射的计算成本很高,可以使用核函数来避免这个问题。核函数是一个将低维空间中的向量映射到高维空间中的函数,它可以在低维空间中计算两个向量之间的内积,从而避免了昂贵的高维计算。 3. 最大间隔分类器:支持向量机的目标是寻找一个平面,使得最靠近它的正样本和负样本之间的距离最大。这个距离被称为间隔。支持向量机的优化目标是找到最大间隔分类器,这是一个分类器,它最大化最靠近平面的正样本和负样本之间的距离。 4. 正则化:为了防止过拟合,支持向量机通常会引入正则化项。正则化项是一个惩罚项,它惩罚模型的复杂度。这个惩罚项可以是L1或L2正则化。 5. 求解:支持向量机的求解可以使用凸优化算法来实现。有很多优化算法可以用来求解支持向量机,其中最常用的是序列最小优化算法(SMO)。 以上就是支持向量机基本原理
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值