每天5分钟机器学习算法:支持向量机之硬间隔分类器以及SMO算法

本文深入探讨支持向量机(SVM)的优化过程,详细解析目标函数的拉格朗日对偶性,以及如何通过SMO(Sequential Minimal Optimization)算法解决二次规划问题。SMO算法通过选择一对λ参数进行更新,逐步求得最优解,最终确定权重w和偏置b,从而构建出分类超平面。
摘要由CSDN通过智能技术生成

本文重点

我们前面把支持向量机需要准备的知识大多数都介绍了,之后我们也介绍了支持向量机的目标函数了,接下来我们要对这个目标函数进行优化了。

优化

这就是目标函数,上一节文章中我们从多角度进行了介绍,那么这里就不多说了,下面继续进行处理,构造拉格朗日函数:

然后我们利用之前的强对偶性对其转换:

从最小到最大的转换,可以让我们先优化w,b,也就是下面我们可以看到w和b可以被λ表示,这样就降低了复杂度了,λ和样本数有关,而w和

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

幻风_huanfeng

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值