机器学习(6.支持向量机二)

2.核函数

引言

在现实任务中,原始样本空间内许并不存在一个能正确划分两类样本的超平面。

将样本从原始空间映射到一个更高维的特征空间,使得样本在这个特征空间内线性可分。

在这里插入图片描述

ϕ ( x ) \phi(\mathbf x) ϕ(x)表示将 x \mathbf x x映射后的特征向量。那么,在特征空间中划分超平面所对应的模型可表示为:

f ( x ) = w T ϕ ( x ) + b f(\mathbf x)=\mathbf w^T\phi(\mathbf x)+b f(x)=wTϕ(x)+b

则其策略为:

min ⁡ w , b 1 2 ∣ ∣ w ∣ ∣ 2 s . t . 1 − y i ( w T ϕ ( x i ) + b ) ≤ 0 , i = 1 , 2 , . . . , m \begin{aligned} \min_{\mathbf w,b}& \frac{1}{2}||\mathbf w||^2 \\s.t. 1-y_i(\mathbf w^T&\phi(\mathbf x_i)+b)≤0, i=1,2,...,m \end{aligned} w,bmins.t.1yi(wT21∣∣w2ϕ(xi)+b)0,i=1,2,...,m

其对偶问题为:

max ⁡ α ∑ i = 1 m α i − 1 2 ∑ i = 1 m ∑ j = 1 m α i α j y i y j ϕ ( x i ) T ϕ ( x j ) s . t . ∑ i = 1 m α i y i , α i ≥ 0 , i = 1 , 2 , . . . , m \begin{aligned} \max_{\mathbf α} \sum_{i=1}^mα_i-\frac{1}{2}\sum_{i=1}^m&\sum_{j=1}^mα_iα_jy_iy_j\phi(\mathbf x_i)^T\phi(\mathbf x_j) \\s.t. &\sum_{i=1}^mα_iy_i, \\ α_i≥0, &i=1,2,...,m \end{aligned} αmaxi=1mαi21i=1ms.t.αi0,j=1mαiαjyiyjϕ(xi)Tϕ(xj)i=1mαiyi,i=1,2,...,m

可以看到上述涉及计算 ϕ ( x i ) T ϕ ( x j ) \phi(\mathbf x_i)^T\phi(\mathbf x_j) ϕ(xi)Tϕ(xj),也就是需要计算样本 x i , x j \mathbf x_i,\mathbf x_j xi,xj映射到特征空间之后的内积。由于特征空间维数可能很高,甚至可能是无穷维,因此直接计算该值通常是困难的。

设想这样一个函数:

κ ( x i , x j ) = < ϕ ( x i ) , ϕ ( x j ) > = ϕ ( x i ) T ϕ ( x j ) \kappa(\mathbf x_i,\mathbf x_j)=<\phi(\mathbf x_i),\phi(\mathbf x_j)>=\phi(\mathbf x_i)^T\phi(\mathbf x_j) κ(xi,xj)=<ϕ(xi),ϕ(xj)>=ϕ(xi)Tϕ(xj)

样本 x i , x j \mathbf x_i,\mathbf x_j xi,xj在特征空间的内积等于它们在原始样本空间中通过函数 κ ( ⋅ , ⋅ ) κ(·,·) κ(⋅,⋅)计算的结果。 κ ( ⋅ , ⋅ ) κ(·,·) κ(⋅,⋅)称为核函数。

可得到:

f ( x ) = w T ϕ ( x ) + b = ∑ i = 1 m α i y i ϕ ( x i ) T ϕ ( x j ) + b = ∑ i = 1 m α i y i κ ( x i , x j ) + b \begin{aligned} f(\mathbf x)&=\mathbf w^T\phi(\mathbf x)+b \\&=\sum_{i=1}^mα_iy_i\phi(\mathbf x_i)^T\phi(\mathbf x_j)+b \\&=\sum_{i=1}^mα_iy_i\kappa(\mathbf x_i,\mathbf x_j)+b \end{aligned} f(x)=wTϕ(x)+b=i=1mαiyiϕ(xi)Tϕ(xj)+b=i=1mαiyiκ(xi,xj)+b

此显示出模型最优解可通过训练样本的核函数展开,这一展式亦称"支持向量展式"(support vector expansion)。

核函数(定理)

只要一个对称函数所对应的核矩阵半正定,它就能作为核函数使用。

在这里插入图片描述

常用核函数

在这里插入图片描述

核函数的意义

硬间隔支持向量机希望样本在特征空间内线性可分,"核函数"的选择决定特征空间的好坏,从而对支持向量机的性能至关重要。若核函数选择不合适,则意味着将样本映射到了一个不合适的特征空间,很可能导致模型性能不佳。

3.核方法

基于核函数的学习方法,统称为"核方法"(kernel methods)。

由SVM和SVR的学习模型可以发现,给定训练样本,若不考虑偏移项,总能表示成核函数的线性组合。

进一步可得到表示定理:
在这里插入图片描述

最常见的,是通过"核化"(即引入核函数)来将线性学习器拓展为非线性学习器。

97380333240)]\assets\表示定理.png)

最常见的,是通过"核化"(即引入核函数)来将线性学习器拓展为非线性学习器。

西瓜书(p137-139)以线性判别分析为例来演示如何通过核化来对其进行非线性拓展从而得到"核线性判别分析"(Kernelized Linear Discriminant Analysis,KLDA)。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值