机器学习算法(三):基于支持向量机的分类预测

机器学习算法(三):基于支持向量机的分类预测

间隔与支持向量

在处理二分类问题时(y={-1,1}),对于给定的训练集我们为了将其分类,很自然的想法就是在样本空间上找到一个划分超平面,好比在空间上竖起一块宽无限小的挡板,一边都是样本-1,而另一边则都是样本1。
划分超平面可以通过线性方程来描述:
ω T x + b = 0 \omega^Tx+b=0 ωTx+b=0
但是超平面的位置又该如何确定,紧贴样本-1,远离样本1也可以将两样本划分开,但是这样泛化能力就会变差,所以我们将超平面的位置确定在两类训练样本的正中间。
所以样本空间中任一点x到超平面( ω \omega ω,b)的距离可写为 r = ∣ ω T x + b ∣ ∣ ∣ ω ∣ ∣ r=\frac{|\omega^Tx+b|}{||\omega||} r=ωωTx+b
∣ ∣ ω ∣ ∣ = ω 1 2 + ω 2 2 + ω 3 2 . . . . . ω n 2 ||\omega||=\sqrt{\omega_1^2+\omega_2^2+\omega_3^2.....\omega_n^2} ω=ω12+ω22+ω32.....ωn2
我们将两个异类支持向量到超平面的距离之和为
γ = 2 ∣ ∣ ω ∣ ∣ \gamma=\frac{2}{||\omega||} γ=ω2
它被称为“间隔”(margin)。
所以目标是:
M a x ω , b 2 ∣ ∣ ω ∣ ∣ Max_{\omega,b} \frac{2}{||\omega||} Maxω,bω2
s . t . y i ( ω T x i + b ) > = 1 , i = 1 , 2 , . . . , m . s.t. y_i(\omega^Tx_i+b)>=1,i=1,2,...,m. s.t.yi(ωTxi+b)>=1,i=1,2,...,m.
M i n ω , b 1 2 ∣ ∣ ω ∣ ∣ 2 Min_{\omega,b}\frac{1}{2}||\omega||^2 Minω,b21ω2

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值