林轩田机器学习技法课程笔记二 对偶支持向量机

本文是林轩田机器学习技法课程中关于对偶支持向量机的笔记,介绍了拉格朗日对偶问题、强对偶条件、KKT最优化条件以及支持向量在对偶SVM中的角色。内容涵盖原始问题的凸性、可分性、线性约束,以及如何通过互补松弛性计算b,并讨论了SVM中w的表示方式与PLA算法的区别。
摘要由CSDN通过智能技术生成

Lecture 2: Dual Support Vector Machine


在正规化regularization中,拉格朗日乘数作为一个给定的参数。在对偶SVM中,拉格朗日乘数未知。

Lagrange dual problem: 算式中min和max做了一个交换。

QP在满足如下三个条件时就可以推出强对偶(等于关系),弱对偶是大于等于关系。

i)convex primal

原问题是凸的。

ii)feasible primal(separable)

原问题可解,也就是数据可分。

iii)linear constraints

限制条件是线性的。

 

在化简的过程中,b消失了,稍后会教怎么用w算出b:用complementary slackness(Harry Potter and Voldermort至少有一个死掉)

KKT最优化条件(KKT是三个研究者名字的缩写)如下:

if primal-dual optimal (b, w, α),

• primal feasible: yn (wT zn + b) ≥ 1

• dual feasible: αn ≥ 0

• dual-inner optimal:Σyn αn = 0; w =Σαn yn zn

• primal-inner optimal (at optimal all ‘Lagrange terms’ disappear):

αn (1 − yn (w T zn + b)) = 0 (complementary slackness)

—called Karush-Kuhn-Tucker (KKT) conditions, necessary for optimality [& sufficient here]

QP solver: bound(an)可以直接用函数(上限和下限)

SV (positive αn ) ⊆ SV candidates (on boundary)

w = linear combination of ynzn

• also true for GD/SGD-based LogReg/LinReg when w0 = 0

w是由数据来表示的。SVM是一种特殊的表示形式,只由支持向量来代表。

PLA算法是用犯错误的点来表示w,SVM是用边界的点来表示w。

Primal Hard-Margin SVM:

physical meaning: locate specially-scaled (b,w)

Dual Hard-Margin SVM:

physical meaning: locate SVs (zn , yn ) & their αn

dual SVM: another QP with valuable geometric messages and almost no dependence on d̃

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值