令H为核函数对应的再生核希尔伯特空间,
表示H空间中的h函数,对于任意单调递增函数
和任意非负损失函数
,优化问题
的解总可写为
表示定理对损失函数没有限制,对正则化项仅要求单调递增,甚至不要求
是凸函数,意味着对于一般的损失函数和正则化项,优化问题的最优解
都可表示为核函数
的线性组合;这显示出核函数的巨大威力。人们发展出一系列基于核函数的学习方法,统称为“核方法”(kernel method)。最常见的,是通过“核化”(即引入核函数)来将线性学习器拓展为非线性学习器。下面我们以线性判别分析为例来演示如何通过核化来对其进行非线性拓展,从而得到“核线性判别分析”(Kernelized Linear Discriminant Analysis,简称KLDA)。
我们假设可通过某种映射将样本映射到一个特征空间F,然后在F中执行线性判别分析,以求得
KLDA的学习目标是:
其中和
分别为训练样本在特征空间F中的类间散度矩阵的类内散度矩阵。令
表示第
类样本的集合,其样本数为
;总样本数
.第i类样本在特征空间F中的均值为
两个散度矩阵分别为
通常我们难以知道映射的具体形式,因此使用核函数
来隐式地表达这个映射和特征空间F。把
作为(6.57)中的损失函数l,再令
,由表示定理,函数h(x)可写为
于是由式(6.59)可得
令为核函数
所对应的核矩阵,
,令
为第i类样本的指示向量,即
为第j和分量为1当且仅当
否则
的第j个分量为0.再令
于是,上式等价为
显然,使用线性判别分析来求解方法即可得到,进而可以得到投影函数h(x)。