浅谈SVM中的高斯核函数

对解线性分类问题,线性分类支持向量机是一种非常有效的方法。但是,有时分类问题
时非线性的,这时可以使用非线性支持向量机。非线性支持向量机,其主要特点是利用核技巧,在此,我主要介绍高斯核函数。

  1. SVM简单介绍
    支持向量机的基本模型是定义在特征空间的间隔最大的线性分类器,间隔最大使它有别于感知机;支持向量机还包括核技巧,这使它成为实质上的非线性分类器。支持向量机的学习策略就是间隔最大化,可形式化为一个求解凸二次规划的问题,也等价于正则化的合页损失函数的最小化问题。支持向量机的学习算法是求解凸二次规划的最优化算法。下图是线性可分且特征为二维时的一个支持向量机的示意图。
    听了上述的介绍,肯定还是有人会懵圈,什么凸二次规划,什么合页损失函数的。没有关系,这个不是本文的重点,网上可以找到这些名词的详细说明。
    在这里插入图片描述
    SVM的分类决策函数可以写为:
    在这里插入图片描述
    当引入核技巧时,分类决策函数变为:
    在这里插入图片描述
    上式等价于经过映射函数ϕ将原来的输入空间变换到一个新的空间,将输入空间的内积x_i x_j变换为新的特征空间的内积ϕ(x_i )ϕ(x_j ),而这个在新特征空间的内积又可以用核函数K(x_i,x_j )直接计算得出
  2. 高斯核函数
    对于每一个核函数,我们都无法想象数据被映射到新空间后,到底有了哪些变化,比如新空间中样本的分布。下面就来简单讨论一下高斯核函数的引入,使得样本在新空间中有怎样的分布情况。
    在这里插入图片描述
    首先,高斯核函数对应的映射函数将样本投射到一个无限维的空间中去了,这个可以将高斯核函数进行多项式展开得到结论。
    其次,映射到的新空间后,所有的样本点分布在以原点为圆心半径为1的1/4球面上。
    证明如下:
    在这里插入图片描述
  • 3
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值