机器学习 -- 支持向量机SVM(Ⅱ 支持向量机思想 Hard Margin SVM)

一. 数学基础

(1)点到直线的距离:

点(x, y)到直线Ax + By + C = 0的距离为:

d = \frac{|Ax + Bx + C|}{\sqrt{A^2 + B^2}}       (与截距C无关)

(2)拓展到n维空间:

\theta^Tx_b = 0    ==>   w^Tx + b = 0

d = \frac{|w^Tx + b|}{||w||}

其中:

||w|| = \sqrt{w_1^2 + w_2^2 + ... + w_n^2}

 

二. 数学推导支持向量机思想

 

如图所示,用于分类的超平面可以用函数 f(x) = w^Tx + b 表示。

我们可以做如下定义:当f(x) = 0时,x便是位于超平面的点;f(x) > 0的点对应y = 1的数据点,f(x) < 0的点对应y = -1的点。

(1)位于两端的点到f(x) = w^Tx + b 的距离大于等于d,则有如下不等式(拆开分子绝对值):

(2)进行整理,两边同时除以d(d > 0):

(3)由于分母是一个具体的数(记m = ||w||d),可以将左式看成分子中w向量中的每一个元素都除以m,加上截距b除以m。记新的w向量和截距分别为w_d, b_d

则上式进一步化为:

(4)可得上下两条直线方程:

(5)由于中间直线右边为0,则也可同除以m,得:

(6)统一了两个未知量w_d, b_d,则将其分别重新命名为w和b以便后面使用。

(7)将上两式合成一个式子为:

y^{(i)}(w^Tx^{(i)} + b) \geq 1

即对于所有数据点都满足上式。

对于任意支持向量x,最大化d即 max \frac{|w^Tx + b|}{||w||} 。而两侧的支持向量满足 |w^Tx + b| = 1。故目标变成 max\frac{1}{||w||},即min||w||。通常我们计算中使用 min \frac{1}{2}||w||^2 (方便求导操作)。

 

故支持向量机算法便转换成如下最优化问题:(有条件的最优化问题)

min \frac{1}{2}||w||^2限定条件(s.t.)为:y^{(i)}(w^Tx^{(i)} + b) \geq 1

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值