Kernel Method

Background

用线性分类方法求解非线性分类问题分为两步:

  • 1.使用一个变换将原空间的数据映射到新空间。
  • 2.在新空间里用线性分类学习方法从训练数据中学习分类模型。

核技巧就属于这样的方法

核技巧用于SVM,其基本想法就是通过一个非线性变换将输入空间(欧式空间 R n R^n Rn或离散集合)对应于一个特征空间(希尔伯特空间 H H H),使得在输入空间 R n R^n Rn中的超曲面模型对应于特征空间H中的超平面模型(支持向量机)。 这样,分类问题的学习任务通过在特征空间中求解线性支持向量机就可以完成。

概览

在这里插入图片描述

基本概念:

kernel的本质:在原空间中不好划分,可以经过一个空间变换,即经过一个非线性的函数变换,(不一定是变换到高维空间),在变换后的空间中可能容易线性划分。

核函数定义

χ \chi χ是输入空间(欧式空间 R n R^n Rn的子集或离散集合),又设 H H H为特征空间(希尔伯特空间),如果存在一个从 χ \chi χ H H H的映射
ϕ ( x ) : χ − > H \phi(x):\chi->H ϕ(x):χ>H
使得对所有的 x , z ∈ χ x, z ∈\chi x,zχ ,函数 κ ( x , z ) \kappa(x, z) κ(x,z)满足条件
κ ( x , z ) = ϕ ( x ) ∗ ϕ ( z ) \kappa(x, z)=\phi(x)*\phi(z) κ(x,z)=ϕ(x)ϕ(z)
则称 κ ( x , z ) \kappa(x, z) κ(x,z)为核函数, ϕ ( x ) \phi(x) ϕ(x)为映射函数。 ϕ ( x ) ∗ ϕ ( z ) \phi(x)*\phi(z) ϕ(x)ϕ(z)为其内积。

在这里插入图片描述
另一个比较重要的感念:kernel function
下图最后的公式是求高纬度空间两个点的内积,经转换得到原低纬空间中两点内积的函数。将这个函数定义为kernel function。

好像只要操纵 kernel function,就能解决所有的问题。

并且知道了kernel function,好像就不需要知道feature mapping ϕ \phi ϕ
在这里插入图片描述
总结:
在这里插入图片描述
为什么要计算高维空间的内积:因为内积决定了几何性质。如最重要的性质是:距离和角度。
下面分析一下内积如何决定距离和角度。

在这里插入图片描述
距离的计算:
在这里插入图片描述
角度的计算:
在这里插入图片描述
也就是说:哪些函数可以看作kernel function,然后就可以进一步算出内积、距离和角度

Kernel Matrix 内积矩阵 – 任意两个点的内积。
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
计算 y = s g n ( < ϕ ( x ) − c , w > ) y = sgn(<\phi(x)-c, w>) y=sgn(<ϕ(x)c,w>) 的方法。

  • 如果 ϕ \phi ϕ函数已知。
    在这里插入图片描述- 如果 ϕ \phi ϕ函数未知,仅知道kernel function: κ ( x , y ) \kappa(x, y) κ(x,y)
    在这里插入图片描述

Question:
在这里插入图片描述
Answer:
在这里插入图片描述
证明下面的函数是有限半正定的
在这里插入图片描述
在这里插入图片描述

常用的kernel function,都满足有限半正定
在这里插入图片描述

练习
在这里插入图片描述

Dual Representation 双重表征

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值