不同范数下的余弦定理_【机器学习】算法原理详细推导与实现(五):支持向量机(下)...

本文深入探讨了支持向量机(SVM)的核函数概念,包括其在处理线性不可分数据时的作用。文章详细介绍了SMO优化算法的步骤,并通过实例展示了SVM在不同数据集上的应用,强调了核函数和规则化在解决实际问题中的重要性。
摘要由CSDN通过智能技术生成

64ec80220e9eab42c4b9d113e4eb98e1.png

【机器学习】算法原理详细推导与实现(五):支持向量机(下)

上一章节介绍了支持向量机的生成和求解方式,能够根据训练集依次得出

的计算方式,但是如何求解需要用到核函数,将在这一章详细推导实现。

核函数

在讲核函数之前,要对上一章节得到的结果列举出来。之前需要优化的凸函数为:

这里假设数据是线性可分隔的,对于这个优化项目,给定一个训练集合,这个问题的算法会找到一个数据集合的最优间隔分类器,可以使训练样本的几何间隔最大化。

在上一章节【机器学习】算法原理详细推导与实现(四):支持向量机(上)中,我们推出了这个问题的对偶问题,也就是要使这个式子最大化:

上面是我们的原始问题,且根据拉格朗日对偶步骤计算得到参数

当需要做分类预测时,需要对新来的输入值

进行计算,计算其假设的值是否大于零,也就是做一次线性运算来判断是正样本还是负样本,有如下计算函数:

核函数概念

接下来要介绍“核”的概念,这个概念具有这样的性质:

算法对于x的依赖仅仅局限于这些内积的计算,甚至在整个算法中,都不会直接使用到向量x的值,而是只需要用到训练样本与输入特征向量的内积

而“核”的概念是这样的,考虑到最初在【机器学习】算法原理详细推导与实现(一):线性回归中提出的问题,比如有一个输入

是房屋的面积,
是房子的价格。假设我们从样本点的分布中看到
符合3次曲线,那么我们会希望使用
的三次多项式来逼近这些样本点。首先将特征
扩展到三维
,这里将这种特征变换称作
特征映射,映射函数为

代表原来的特征
映射成的,这里希望得到映射后的特征应用于
svm分类,而不是最初的一维特征,只需要将前面
公式中的内积从
至于为什么需要映射后的特征而不是最初的特征来参与计算,上面提到的一个原因:
为了更好的拟合,另外一个原因是 样本可能存在线性不可分的情况,而特征映射到高维过后往往就可分了

如果原始特征的内积为

为什么会那么定义核函数?有些时候

的维度将会非常的高,可能会包含非常高维的多项式特征,甚至会到无限维。当
的维度非常高时,可能无法高效的计算内积,甚至无法计算。如果要求解前面所提到的凸函数,只需要先计算
,然后再计算
即可,但是这种常规方法是很低效的,比如最开始的特征是
维,并将其映射到
维度,这时候计算需要
的时间复杂度。这里假设
都是
维的:

展开后得到:

也就是说,如果开始的特征是

维,并将其映射到
维度后,其映射后的计算量为
。而如果只是计算原始特征
的内积平方,时间复杂度还是
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值