机器学习中常用的核函数

核函数K(kernel function)就是指K(x, y) = <f(x), f(y)>,其中x和y是n维的输入值,f(·) 是从n维到m维的映射(通常,m>>n)。<x, y>是x和y的内积(inner product)(也称点积(dot product))。

1. Linear Kernel

线性核是最简单的核函数,核函数的数学公式如下:

 

2. Polynomial Kernel

多项式核实一种非标准核函数,它非常适合于正交归一化后的数据,其具体形式如下:

这个核函数是比较好用的,就是参数比较多,但是还算稳定。

 

3. Gaussian Kernel

这里说一种经典的鲁棒径向基核,即高斯核函数,鲁棒径向基核对于数据中的噪音有着较好的抗干扰能力,其参数决定了函数作用范围,超过了这个范围,数据的作用就“基本消失”。高斯核函数是这一族核函数的优秀代表,也是必须尝试的核函数,其数学形式如下:

虽然被广泛使用,但是这个核函数的性能对参数十分敏感,以至于有一大把的文献专门对这种核函数展开研究,同样,高斯核函数也有了很多的变种,如指数核,拉普拉斯核等。

 

4. Exponential Kernel

 指数核函数就是高斯核函数的变种,它仅仅是将向量之间的L2距离调整为L1距离,这样改动会对参数的依赖性降低,但是适用范围相对狭窄。其数学形式如下:

 

5. Laplacian Kernel

拉普拉斯核完全等价于指数核,唯一的区别在于前者对参数的敏感性降低,也是一种径向基核函数。

 

6. ANOVA Kernel

ANOVA 核也属于径向基核函数一族,其适用于多维回归问题,数学形式如下:

 

7. Sigmoid Kernel

Sigmoid 核来源于神经网络,现在已经大量应用于深度学习,是当今机器学习的宠儿,它是S型的,所以被用作于“激活函数”。关于这个函数的性质可以说好几篇文献,大家可以随便找一篇深度学习的文章看看。

 

8. Rational Quadratic Kernel

 二次有理核完完全全是作为高斯核的替代品出现,如果你觉得高斯核函数很耗时,那么不妨尝试一下这个核函数,顺便说一下,这个核函数作用域虽广,但是对参数十分敏感,慎用!!!!

 

9. Multiquadric Kernel

多元二次核可以替代二次有理核,它是一种非正定核函数。

 

10. Inverse Multiquadric Kernel

      顾名思义,逆多元二次核来源于多元二次核,这个核函数我没有用过,但是据说这个基于这个核函数的算法,不会遇到核相关矩阵奇异的情况。

 

11. Circular Kernel

      这个核函数没有用过,其数学形式如下所示:

 

12. Spherical Kernel

      这个核函数是上一个的简化版,形式如下所示

 

13. Wave Kernel

      这个核函数没有用过,其适用于语音处理场景。

 

14. Triangular  Kernel

三角核函数感觉就是多元二次核的特例,数学公式如下:

 

15. Log Kernel

      对数核一般在图像分割上经常被使用,数学形式如下:

 

16. Spline Kernel

 

17. Bessel Kernel

 

18. Cauchy Kernel

      柯西核来源于神奇的柯西分布,与柯西分布相似,函数曲线上有一个长长的尾巴,说明这个核函数的定义域很广泛,言外之意,其可应用于原始维度很高的数据上。

 

19. Chi-Square Kernel

      卡方核,这是我最近在使用的核函数,让我欲哭无泪,在多个数据集上都没有用,竟然比原始算法还要差劲,不知道为什么文献作者首推这个核函数,其来源于卡方分布,数学形式如下:

它存在着如下变种:

其实就是上式减去一项得到的产物,这个核函数基于的特征不能够带有赋值,否则性能会急剧下降,如果特征有负数,那么就用下面这个形式:

 

20. Histogram Intersection Kernel

      直方图交叉核在图像分类里面经常用到,比如说人脸识别,适用于图像的直方图特征,例如extended LBP特征其数学形式如下,形式非常的简单

 

21. Generalized Histogram Intersection

     顾名思义,广义直方图交叉核就是上述核函数的拓展,形式如下:

 

22. Generalized T-Student Kernel

      TS核属于mercer核,其数学形式如下,这个核也是经常被使用的

 

23. Bayesian Kernel

贝叶斯核函数还没有用到过。


 

 

 

  • 6
    点赞
  • 47
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
核方法是一种在机器学习广泛应用的方法,特别是在支持向量机 (SVM) 。它的主要思想是将输入数据从原始空间转换到一个高维特征空间,使数据在该空间更容易分离。而这种转换通常是通过核函数 (Kernel Function) 来实现的。核函数可以看作是一种相似度函数,它通过计算两个数据点之间的相似程度来确定它们在高维特征空间的位置。常见的核函数有线性核、多项式核、高斯核等,不同的核函数对应不同的特征空间和不同的分类效果。 核方法的优点在于它可以处理非线性问题。在传统的线性分类器,如果数据不是线性可分的,那么分类器的性能通常会很差。但是核方法通过将数据映射到高维特征空间,使得数据在该空间更容易分离,从而克服了线性分类器的缺点。此外,核方法还具有尺度不变性、局部性和通用性等优点,可以应用于各种不同的机器学习任务和算法。 然而,核方法的缺点在于它的计算复杂度较高,尤其是在高维特征空间,计算量会更大。此外,核方法还需要选择合适的核函数和参数,这通常需要进行交叉验证来确定,而且选择不当可能会导致过拟合或欠拟合等问题。 总的来说,核方法是一种强大的机器学习工具,可以应用于各种不同类型的数据和不同的学习任务。虽然它有一些缺点,但是通过合理选择核函数和参数,以及优化算法等手段,可以克服这些问题,实现高效而准确的学习和分类。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值