第六章 支持向量机

第六章 支持向量机

间隔与支持向量

划分超平面

如图,中间粗线所代表的超平面所产生的分类结果是最鲁棒(稳定)的,对未见示例的泛化能力最强。
这里写图片描述

表示超平面的线性方程

在样本空间中,划分超平面可通过如下线性方程来描述:

ωTx+b=0
其中 ω=(ω1;ω2;...;ωd) 为法向量,决定了超平面的方向;b为位移项,决定了超平面与原点之间的距离。则样本空间中任意点 x 到超平面(ω,b)的距离可写为
这里写图片描述

支持向量与间隔

假设超平面( ω ,b)能将训练样本正确分类,即对于 (xi,yi)D ,令
这里写图片描述
如图,距离超平面最近的这几个训练样本点使上式的等号成立,它们被称为支持向量 (support vector),两个异类支持向量到超平面的距离之和为
这里写图片描述
它被称为间隔(margin)
这里写图片描述

支持向量机(Support Vector Machine,简称SVM)的基本型

为了找到具有最大间隔(maximum margin)的划分超平面,也就是让 γ 最大,即
这里写图片描述
而最大化间隔,仅需最大化 ||ω||1 ,也就是最小化 ||ω||2 ,即
这里写图片描述
这就是支持向量机的基本型

对偶问题(dual problem)

什么是对偶问题

任何一个求极大化的线性规划问题都有一个求极小化的线性规划问题与之对应,反之亦然,如果我们把其中一个叫原问题,则另一个就叫做它的对偶问题,并称这一对互相联系的两个问题为一对对偶问题。

如何得到它

例如对上式(支持向量机的基本型)使用拉格朗日乘子法可得到它的对偶问题:
这里写图片描述
这里写图片描述

核函数(kernel function)

由于在现实任务中,原始样本空间内可能并不存在一个能正确划分两类样本的超平面。对于这些问题,可将样本从原始空间映射到一个更高维度的特征空间,使其线性可分。
这里写图片描述
ϕ(x) 表示x映射后的特征向量,在特征空间中划分超平面所对应的模型可表示为:
这里写图片描述
则有,
这里写图片描述
其对偶问题是:
这里写图片描述
这里写图片描述
为了避免直接计算 ϕ(xi)Tϕ(xj) ,可以设想这样一个函数:
于是,
这里写图片描述
这里的 κ(.,.) 就是核函数。上式显示出模型最优解可通过训练样本的核函数展开,这一展开式亦称支持向量展式(support vector expansion).

核函数定理

这里写图片描述

常用核函数

这里写图片描述

其它

除了上述方法还可以通过函数组合来得到核函数:
这里写图片描述
这里写图片描述

软间隔与正则化

软间隔(soft margin)

  • 问题
    这里写图片描述
  • 解决
    为缓解该问题的一个办法是允许支持向量机在一些样本上出错,这就用到了软间隔。如图:
    这里写图片描述
    之前的支持向量机形式要求所有样本均满足约束,这称为硬间隔。而软间隔允许某些样本不满足约束:
    这里写图片描述

损失函数

三种常用的替代损失函数:
这里写图片描述
这里写图片描述

正则化(regulariztion)

无论用什么替代损失函数,这些学习模型都具有一个共性:优化目标中的第一项用来描述划分超平面的“间隔”大小,另一项 mi=1l(f(xi),yi) 用来表述训练集上的误差,可写为更一般的形式:
这里写图片描述
这里写图片描述

支持向量回归(Support Vector Regression)

对于样本 (x,y) ,支持向量回归假设能容忍 f(x) 与y之间最多有 ϵ 的偏差,则如图:
这里写图片描述
SVR问题可化为:
这里写图片描述
其中C为正则化常数, lϵ ϵ -不敏感损失( ϵ -insensitive loss)函数。
这里写图片描述
这里写图片描述
其对偶问题是:
这里写图片描述
SVR的解形如:
这里写图片描述
引入核函数:
这里写图片描述
其中, κ(xi,xj)=ϕ(xi)Tϕ(xj) 为核函数。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值