从零单排PRML 第6章 Kernel Methods

从零单排PRML 第6章 Kernel Methods

作者: Houye

单位: 北京邮电大学博士生

知乎主页: https://www.zhihu.com/people/Jhy1993

公众号 图与推荐

在这里插入图片描述

PRML一般指代Pattern Recognition and Machine Learning(模式识别与机器学习)一书。该书出版于2006年,是贝叶斯机器学习领域的经典之作。

更重要的是,算法工程面试的真题很多都来自这本书. 作者在面试阿里巴巴研究型实习生的时候就被问到了这本书的很多知识.

马春鹏同学的中译版本给了我们很好的参考,但是其并没有对PRMl的内容进行解读.

从零单排PRML系列旨在用浅显易懂的白话对机器学习相关知识进行梳理(个人理解,可能有不精确的地方,欢迎批评指教).

同时,作者对一些公式和模型罗列了一些简单的Python代码示例以促进理解.代码示例主要来自https://github.com/ctgk/PRML

引言

机器学习里面对待训练数据有2种,抛弃或者保留

  • 有的是训练完得到参数后就可以抛弃了,比如神经网络;
  • 有的是还需要原来的训练数据比如KNN,SVM也需要保留一部分数据–支持向量。

许多线性参数模型可以转化为对偶形式,转化后依然是线性模型.

只是线性组合的对象变成了一组非线性基函数.

这里的非线性基函数就是在基于各个数据点计算的核函数.

对偶表示

最小均方误差形式
J ( w ) = 1 2 ∑ n = 1 N { w T ϕ ( x n ) − t n } 2 + λ 2 w T w J ( \boldsymbol { w } ) = \frac { 1 } { 2 } \sum _ { n = 1 } ^ { N } \left\{ \boldsymbol { w } ^ { T } \boldsymbol { \phi } \left( \boldsymbol { x } _ { n } \right) - t _ { n } \right\} ^ { 2 } + \frac { \lambda } { 2 } \boldsymbol { w } ^ { T } \boldsymbol { w } J(w)=21n=1N{wTϕ(xn)tn}2+2λwTw
对偶形式:核函数形式
J ( a ) = 1 2 a T K K a − a T K t + 1 2 t T t + λ 2 a T K a J ( \boldsymbol { a } ) = \frac { 1 } { 2 } \boldsymbol { a } ^ { T } \boldsymbol { K } \boldsymbol { K } \boldsymbol { a } - \boldsymbol { a } ^ { T } \boldsymbol { K } \mathbf { t } + \frac { 1 } { 2 } \mathbf { t } ^ { T } \mathbf { t } + \frac { \lambda } { 2 } \boldsymbol { a } ^ { T } \boldsymbol { K } \boldsymbol { a } J(a)=21aTKKaaTKt+21tTt+2λaTKa
这里K是著名的Gram矩阵 K = Φ Φ T \boldsymbol { K } = \boldsymbol { \Phi } \boldsymbol { \Phi } ^ { T } K=ΦΦT.上式中的$\boldsymbol { a } $又有闭式解
a = ( K + λ I N ) − 1 t \boldsymbol { a } = \left( \boldsymbol { K } + \lambda \boldsymbol { I } _ { N } \right) ^ { - 1 } \mathbf { t } a=(K+λIN)1t
这样,问题的解$\boldsymbol { a } 就 只 与 核 函 数 就只与核函数 \boldsymbol { K } $有关了.

最小均方转为核函数的组合 k ( x , x ′ ) k \left( x , x ^ { \prime } \right) k(x,x)后,我们就只关心$x , x ^ { \prime } 基 于 核 函 数 的 结 果 , 对 偶 表 示 可 以 避 免 了 显 式 的 使 用 特 征 向 量 基于核函数的结果,对偶表示可以避免了显式的使用特征向量 ,使\phi(x) . 这 样 做 不 关 心 中 间 过 程 .这样做不关心中间过程 .\boldsymbol { \phi} ( x ) ^ { \mathrm { T } } \boldsymbol { \phi } \left( x ^ { \prime } \right) $ ,只关心结果 k ( x , x ′ ) k \left( x , x ^ { \prime } \right) k(x,x).

核函数形式$k \left( x , x ^ { \prime } \right) =\boldsymbol { \phi} ( x ) ^ { \mathrm { T } } \boldsymbol { \phi } \left( x ^ { \prime } \right) $ ,也就是映射后高维特征空间的内积可以通过原来低维的特征得到, 这样做的好处是可以使用隐式的高维特征,所以kernel method得到了广泛应用. 以SVM为例,低维不可分的数据,经过kernel将特征映射到高维后,就可以分开了.

以下式为例, 这里 $k ( \boldsymbol { x } , \boldsymbol { z } ) $ 的形式很简洁,但是如果想找到 ϕ ( x ) \phi(x) ϕ(x)是比较难的.这里的 ϕ ( x ) \phi(x) ϕ(x)只是中间需求,最终我们需要只是$k ( \boldsymbol { x } , \boldsymbol { z } ) $.
k ( x , z ) = ( x T z ) 2 , 形 式 简 洁 , 好 算 ϕ ( x ) = ( x 1 2 , 2 x 1 x 2 , x 2 2 ) T , 很 难 找 到 , 计 算 量 大 k ( \boldsymbol { x } , \boldsymbol { z } ) = \left( \boldsymbol { x } ^ { T } \boldsymbol { z } \right) ^ { 2 },形式简洁,好算 \\ \phi ( \mathbf { x } ) = \left( x _ { 1 } ^ { 2 } , \sqrt { 2 } x _ { 1 } x _ { 2 } , x _ { 2 } ^ { 2 } \right) ^ { \mathrm { T } },很难找到,计算量大 k(x,z)=(xTz)2,,ϕ(x)=(x12,2 x1x2,x22)T,,

构建kernel的方法

特征映射法

选择一个特征映射函数$\boldsymbol { \phi} ( x ) $ ,并通过这个映射来寻找kernel.
k ( x , x ′ ) = ϕ ( x ) T ϕ ( x ′ ) = ∑ i = 1 M ϕ i ( x ) ϕ i ( x ′ ) k \left( x , x ^ { \prime } \right) =\boldsymbol { \phi} ( x ) ^ { \mathrm { T } } \boldsymbol { \phi } \left( x ^ { \prime } \right) = \sum _ { i = 1 } ^ { M } \phi _ { i } ( x ) \phi _ { i } \left( x ^ { \prime } \right) k(x,x)=ϕ(x)Tϕ(x)=i=1Mϕi(x)ϕi(x)

直接构造

直接写出kernel的形式,
k ( x , z ) = ( x T z ) 2 k ( \mathbf { x } , \mathbf { z } ) = \left( \mathbf { x } ^ { \mathrm { T } } \mathbf { z } \right) ^ { 2 } k(x,z)=(xTz)2
这里kernel的形式是写出来了,但是这个形式合法吗?

合法性检验有2个方法:

  1. 找到对应的特征映射函数

  2. Gram矩阵在所有可能的{xn}的选择下都是半正定的.

下面是通过方法1来对kernel进行合法性检查.上式可以认为是二维输入 x = ( x 1 , x 2 ) \mathbf { x } = \left( x _ { 1 } , x _ { 2 } \right) x=(x1,x2), 经过特征映射法的结果,原因是可以将上式展开了为2个经过特征映射后的$\boldsymbol { \phi} ( x ) $的内积.
k ( x , z ) = ( x T z ) 2 = ( x 1 z 1 + x 2 z 2 ) 2 = x 1 2 z 1 2 + 2 x 1 z 1 x 2 z 2 + x 2 2 z 2 2 = ( x 1 2 , 2 x 1 x 2 , x 2 2 ) ( z 1 2 , 2 z 1 z 2 , z 2 2 ) T = ϕ ( x ) T ϕ ( z ) \begin{aligned} k ( \mathbf { x } , \mathbf { z } ) & = \left( \mathbf { x } ^ { \mathrm { T } } \mathbf { z } \right) ^ { 2 } = \left( x _ { 1 } z _ { 1 } + x _ { 2 } z _ { 2 } \right) ^ { 2 } \\ & = x _ { 1 } ^ { 2 } z _ { 1 } ^ { 2 } + 2 x _ { 1 } z _ { 1 } x _ { 2 } z _ { 2 } + x _ { 2 } ^ { 2 } z _ { 2 } ^ { 2 } \\ & = \left( x _ { 1 } ^ { 2 } , \sqrt { 2 } x _ { 1 } x _ { 2 } , x _ { 2 } ^ { 2 } \right) \left( z _ { 1 } ^ { 2 } , \sqrt { 2 } z _ { 1 } z _ { 2 } , z _ { 2 } ^ { 2 } \right) ^ { \mathrm { T } } \\ & = \phi ( \mathbf { x } ) ^ { \mathrm { T } } \phi ( \mathbf { z } ) \end{aligned} k(x,z)=(xTz)2=(x1z1+x2z2)2=x12z12+2x1z1x2z2+x22z22=(x12,2 x1x2,x22)(z12,2 z1z2,z22)T=ϕ(x)Tϕ(z)
这里的特征映射函数形式为 ϕ ( x ) = ( x 1 2 , 2 x 1 x 2 , x 2 2 ) T \phi ( \mathbf { x } ) = \left( x _ { 1 } ^ { 2 } , \sqrt { 2 } x _ { 1 } x _ { 2 } , x _ { 2 } ^ { 2 } \right) ^ { \mathrm { T } } ϕ(x)=(x12,2 x1x2,x22)T ,可以验证 k ( x , z ) = ( x T z ) 2 k ( \mathbf { x } , \mathbf { z } ) = \left( \mathbf { x } ^ { \mathrm { T } } \mathbf { z } \right) ^ { 2 } k(x,z)=(xTz)2 是一个合法的kernel.

基于现有的合法kernel进行构建

假设 $k _ { 1 } \left( \mathbf { x } , \mathbf { x } ^ { \prime } \right) 和 和 k _ { 2 } \left( \mathbf { x } , \mathbf { x } ^ { \prime } \right)$都是合法kernel,那么通过以下形式组合构建的新的kernel也是合法的.
k ( x , x ′ ) = c k 1 ( x , x ′ ) , c > 0 k ( x , x ′ ) = k 1 ( x , x ′ ) + k 2 ( x , x ′ ) k ( x , x ′ ) = exp ⁡ ( k 1 ( x , x ′ ) ) k ( x , x ′ ) = f ( x ) k 1 ( x , x ′ ) f ( x ′ ) , f   i s   a n y   f u n c t i o n . . . k \left( \mathbf { x } , \mathbf { x } ^ { \prime } \right) = c k _ { 1 } \left( \mathbf { x } , \mathbf { x } ^ { \prime } \right), c>0 \\ k \left( \mathbf { x } , \mathbf { x } ^ { \prime } \right) = k _ { 1 } \left( \mathbf { x } , \mathbf { x } ^ { \prime } \right) + k _ { 2 } \left( \mathbf { x } , \mathbf { x } ^ { \prime } \right) \\ k \left( \mathbf { x } , \mathbf { x } ^ { \prime } \right) = \exp \left( k _ { 1 } \left( \mathbf { x } , \mathbf { x } ^ { \prime } \right) \right)\\ k \left( \mathbf { x } , \mathbf { x } ^ { \prime } \right) = f ( \mathbf { x } ) k _ { 1 } \left( \mathbf { x } , \mathbf { x } ^ { \prime } \right) f \left( \mathbf { x } ^ { \prime } \right), f \ is \ any \ function \\ ... k(x,x)=ck1(x,x),c>0k(x,x)=k1(x,x)+k2(x,x)k(x,x)=exp(k1(x,x))k(x,x)=f(x)k1(x,x)f(x),f is any function...
这里以经典的 高斯核 为例, 通过其构造过程来验证其合法性.

首先高斯核函数是一种径向基核
k ( x , x ′ ) = exp ⁡ ( − ∥ x − x ′ ∥ 2 / 2 σ 2 ) k \left( \mathbf { x } , \mathbf { x } ^ { \prime } \right) = \exp \left( - \left\| \mathbf { x } - \mathbf { x } ^ { \prime } \right\| ^ { 2 } / 2 \sigma ^ { 2 } \right) k(x,x)=exp(xx2/2σ2)
把exp中的平方项展开得到
∥ x − x ′ ∥ 2 = x T x + ( x ′ ) T x ′ − 2 x T x ′ k ( x , x ′ ) = exp ⁡ ( − x T x / 2 σ 2 ) exp ⁡ ( x T x ′ / σ 2 ) exp ⁡ ( − ( x ′ ) T x ′ / 2 σ 2 ) \left\| \mathbf { x } - \mathbf { x } ^ { \prime } \right\| ^ { 2 } = \mathbf { x } ^ { \mathrm { T } } \mathbf { x } + \left( \mathbf { x } ^ { \prime } \right) ^ { \mathrm { T } } \mathbf { x } ^ { \prime } - 2 \mathbf { x } ^ { \mathrm { T } } \mathbf { x } ^ { \prime } \\ k \left( \mathbf { x } , \mathbf { x } ^ { \prime } \right) = \exp \left( - \mathbf { x } ^ { \mathrm { T } } \mathbf { x } / 2 \sigma ^ { 2 } \right) \exp \left( \mathbf { x } ^ { \mathrm { T } } \mathbf { x } ^ { \prime } / \sigma ^ { 2 } \right) \exp \left( - \left( \mathbf { x } ^ { \prime } \right) ^ { \mathrm { T } } \mathbf { x } ^ { \prime } / 2 \sigma ^ { 2 } \right) xx2=xTx+(x)Tx2xTxk(x,x)=exp(xTx/2σ2)exp(xTx/σ2)exp((x)Tx/2σ2)
这里线性kernel k ( x , x ′ ) = x T x ′ k \left( \mathbf { x } , \mathbf { x } ^ { \prime } \right) = \mathbf { x } ^ { \mathrm { T } } \mathbf { x } ^ { \prime } k(x,x)=xTx 是合法的,然后基于上述的构造性质,可以看出高斯核是合法的.同时,由于 e x p exp exp的泰勒展开有无穷多项,所以高斯核将特征向量映射到无穷多维.

通过概率生成模型来构建

给定一个生成模型 p ( x ) p(x) p(x) , 我们可以定义kernel
k ( x , x ′ ) = p ( x ) p ( x ′ ) k \left( \mathbf { x } , \mathbf { x } ^ { \prime } \right) = p ( \mathbf { x } ) p \left( \mathbf { x } ^ { \prime } \right) k(x,x)=p(x)p(x)
这里的 p ( x ) p(x) p(x)可以认为是 ϕ ( x ) \phi(x) ϕ(x).

高斯过程

什么是高斯过程?

首先高斯分布定义为函数 y ( x ) y(\mathbf{x}) y(x)上的一个高斯分布,并且这个函数在一系列点 x 1 , … , x N \mathbf { x } _ { 1 } , \dots , \mathbf { x } _ { N } x1,,xN 的响应值 y ( x 1 ) , … , y ( x N ) y \left( \mathbf { x } _ { 1 } \right) , \ldots , y \left( \mathbf { x } _ { N } \right) y(x1),,y(xN) 联合概率分布也是高斯的.

高斯过程=高斯+过程

  • 高斯: 对于 y ( x ) y(\mathbf{x}) y(x),为什么它是高斯的呢?我们令
    y ( x ) = w T ϕ ( x ) p ( w ) = N ( w ∣ 0 , α − 1 I ) y ( \mathbf { x } ) = \mathbf { w } ^ { \mathrm { T } } \boldsymbol { \phi } ( \mathbf { x } )\\ p ( \mathbf { w } ) = \mathcal { N } ( \mathbf { w } | \mathbf { 0 } , \alpha ^ { - 1 } \mathbf { I } ) y(x)=wTϕ(x)p(w)=N(w0,α1I)
    这里的 y y y是一些 w \mathbf{w} w的混合,而 w \mathbf{w} w 我们给了一个高斯分布的先验.然后利用性质:高斯分布的线性组合依然是高斯分布.所以 y ( x ) y(\mathbf{x}) y(x)也是高斯分布. 这里我们只要确定 y ( x ) y(\mathbf{x}) y(x)均值和方差就可以确定这个高斯分布.

  • 过程:时间或者空间上一系列点 x 1 , … , x N \mathbf { x } _ { 1 } , \dots , \mathbf { x } _ { N } x1,,xN 的响应值 y ( x 1 ) , … , y ( x N ) y \left( \mathbf { x } _ { 1 } \right) , \ldots , y \left( \mathbf { x } _ { N } \right) y(x1),,y(xN) .

考虑一系列的点,我们可以得到
y = Φ W \mathbf { y } = \mathbf { \Phi } _ { \mathbf { W } } y=ΦW
下面就是这个多维高斯分布的均值和协方差.
E [ y ] = Φ E [ w ] = 0 cov ⁡ [ y ] = E [ y y T ] = Φ E [ w w T ] Φ T = 1 α Φ Φ T = K \begin{aligned} \mathbb { E } [ \mathbf { y } ] & = \mathbf { \Phi } \mathbb { E } [ \mathbf { w } ] = \mathbf { 0 } \\ \operatorname { cov } [ \mathbf { y } ] & = \mathbb { E } \left[ \mathbf { y y } ^ { \mathrm { T } } \right] = \mathbf { \Phi } \mathbb { E } \left[ \mathbf { w } \mathbf { w } ^ { \mathrm { T } } \right] \mathbf { \Phi } ^ { \mathrm { T } } = \frac { 1 } { \alpha } \mathbf { \Phi } \mathbf { \Phi } ^ { \mathrm { T } } = \mathbf { K } \end{aligned} E[y]cov[y]=ΦE[w]=0=E[yyT]=ΦE[wwT]ΦT=α1ΦΦT=K
这里我们进一步做了简化,将 y ( x ) y(\mathbf{x}) y(x)的均值设为0,那么一个高斯过程就仅仅受协方差矩阵的控制.更重要的是,这个协方差矩阵我们用一个kernel来确定,kernel形式为特征映射法的形式. 这也是为什么高斯过程放在kernel method这一章! 综上,我们得到确定一个高斯过程的步骤:

  1. 确定核函数的形式
  2. 求解核形式的协方差矩阵
  3. 确定高斯过程

有了前几章的基础,书中这里举了2个核函数例子(高斯核,指数核).给定了$\mathbf { y } 的 分 布 , 我 们 可 以 进 行 采 样 , 得 到 不 同 的 的分布,我们可以进行采样,得到不同的 ,,\mathbf { y } . 下 图 就 是 基 于 不 同 的 核 采 样 得 到 的 . 下图就是基于不同的核采样得到的 .\mathbf { y } $.

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-eoEuGGeW-1580383052689)(https://ws2.sinaimg.cn/large/006tNbRwly1fy38weej2tj30nt0813zk.jpg)]

到这里什么是高斯过程及其如何确定一个高斯过程就清楚了.接下来是一些高斯过程应用(回归,分类).

基于高斯过程的回归

考虑观测值 y n y_n yn上的一个高斯噪声 ϵ n \epsilon _ { n } ϵn,
t n = y n + ϵ n y n = y ( x n ) t _ { n } = y _ { n } + \epsilon _ { n }\\ y_n=y(\mathbf{x}_n) tn=yn+ϵnyn=y(xn)
这样 t \mathbf { t } t可以认为是从以 y \mathbf { y} y为均值的高斯分布中采样得到.似然函数如下
p ( t ∣ y ) = N ( t ∣ y , β − 1 I N ) p ( \mathbf { t } | \mathbf { y } ) = \mathcal { N } ( \mathbf { t } | \mathbf { y } , \beta ^ { - 1 } \mathbf { I } _ { N } ) p(ty)=N(ty,β1IN)
基于高斯过程的定义, 下式为高斯过程先验
p ( y ) = N ( y ∣ 0 , K ) p ( \mathbf { y } ) = \mathcal { N } ( \mathbf { y } | \mathbf { 0 } , \mathbf { K } ) p(y)=N(y0,K)
可以看出:核函数 K K K控制先验.

为了得到 t \mathbf { t } t的分布,我们需要对其联合概率分布求积分,即边缘化
p ( t ) = ∫ p ( t ∣ y ) p ( y ) d y = N ( t ∣ 0 , C ) p ( \mathbf { t } ) = \int p ( \mathbf { t } | \mathbf { y } ) p ( \mathbf { y } ) \mathrm { d } \mathbf { y } = \mathcal { N } ( \mathbf { t } | \mathbf { 0 } , \mathbf { C } ) p(t)=p(ty)p(y)dy=N(t0,C)
这里的$p ( \mathbf { t } | \mathbf { y } ) 和 p ( \mathbf { y } ) $都是高斯分布,其中
C ( x n , x m ) = k ( x n , x m ) + β − 1 δ n m δ n m = 1 , i f   m = n C \left( \mathbf { x } _ { n } , \mathbf { x } _ { m } \right) = k \left( \mathbf { x } _ { n } , \mathbf { x } _ { m } \right) + \beta ^ { - 1 } \delta _ { n m }\\ \delta _ { n m }=1, if \ m=n C(xn,xm)=k(xn,xm)+β1δnmδnm=1,if m=n
这里意思是只有协方差矩阵的对角线叠加了噪声.这是因为每次的噪声都是相互独立,所以非对角线的位置相关性都为0.这里对核函数 K K K 的唯一限制就是协方差矩阵是正定的.假设 λ i \lambda_i λi 是核函数 K K K 的特征值,那么协方差矩阵 C \mathbf { C } C的特征值就是 λ i + β − 1 \lambda_i+\beta^{-1} λi+β1.核函数需要满足半正定,即 λ i ≥ 0 \lambda _ { i } \geq 0 λi0,加上一个正数 β \beta β就可以 λ i + β − 1 > 0 \lambda_i+\beta^{-1}>0 λi+β1>0, 所以 C \mathbf { C } C正定.

回归问题可以认为是基于之前的输入 x 1 , … , x N \mathbf { x } _ { 1 } , \dots , \mathbf { x } _ { N } x1,,xN和输出 t N = ( t 1 , … , t N ) T \mathbf { t } _ { N } = \left( t _ { 1 } , \ldots , t _ { N } \right) ^ { \mathrm { T } } tN=(t1,,tN)T ,对新的输入 x N + 1 \mathbf{x}_{N+1} xN+1 进行预测(求 t N + 1 t_{N+1} tN+1).写成条件概率的形式就是
p ( t N + 1 ∣ t N , x 1 , … , x N , x N + 1 ) , ( 省 略 输 入 ) = p ( t N + 1 ∣ t N ) p \left( t _ { N + 1 } | \mathbf { t } _ { N } , \mathbf { x } _ { 1 } , \dots , \mathbf { x } _ { N },\mathbf{x}_{N+1} \right), (省略输入)\\ =p \left( t _ { N + 1 } | \mathbf { t } _ { N }\right) p(tN+1tN,x1,,xN,xN+1),()=p(tN+1tN)
前面已经得到了 p ( t ) = N ( t ∣ 0 , C ) p ( \mathbf { t } )=\mathcal { N } ( \mathbf { t } | \mathbf { 0 } , \mathbf { C } ) p(t)=N(t0,C) (高斯分布),那么
p ( t N + 1 ) = N ( t N + 1 ∣ 0 , C N + 1 ) p \left( \mathbf { t } _ { N + 1 } \right) = \mathcal { N } \left( \mathbf { t } _ { N + 1 } | \mathbf { 0 } , \mathbf { C } _ { N + 1 } \right) p(tN+1)=N(tN+10,CN+1)
这里的$\mathbf { C } _ { N + 1 } 和 前 面 的 和前面的 \mathbf { C }_N$ 的关系为,为什么要写成这种形式呢?
C N + 1 = ( C N k k T c ) \mathbf { C } _ { N + 1 } = \left( \begin{array} { c c } { \mathbf { C } _ { N } } & { \mathbf { k } } \\ { \mathbf { k } ^ { \mathrm { T } } } & { c } \end{array} \right) CN+1=(CNkTkc)
写成上述形式,可以利用公式
μ a ∣ b = μ a + Σ a b Σ b b − 1 ( x b − μ b ) Σ a ∣ b = Σ a a − Σ a b Σ b b − 1 Σ b a \begin{aligned} \boldsymbol { \mu } _ { a | b } & = \boldsymbol { \mu } _ { a } + \boldsymbol { \Sigma } _ { a b } \boldsymbol { \Sigma } _ { b b } ^ { - 1 } \left( \mathbf { x } _ { b } - \boldsymbol { \mu } _ { b } \right) \\ \boldsymbol { \Sigma } _ { a | b } & = \boldsymbol { \Sigma } _ { a a } - \boldsymbol { \Sigma } _ { a b } \boldsymbol { \Sigma } _ { b b } ^ { - 1 } \boldsymbol { \Sigma } _ { b a } \end{aligned} μabΣab=μa+ΣabΣbb1(xbμb)=ΣaaΣabΣbb1Σba
这里的 p ( x a ∣ x b ) = p ( t N + 1 ∣ t N ) p \left( \mathbf { x } _ { a } | \mathbf { x } _ { b } \right)=p \left( t _ { N + 1 } | \mathbf { t } _ { N }\right) p(xaxb)=p(tN+1tN) , b对应数据 t N = ( t 1 , … , t N ) T \mathbf { t } _ { N } = \left( t _ { 1 } , \ldots , t _ { N } \right) ^ { \mathrm { T } } tN=(t1,,tN)T , a对应 t N + 1 t_{N+1} tN+1.代入得到
p ( t N + 1 ∣ t ) = N ( t N + 1 ∣ m ( x N + 1 ) , σ 2 ( x N + 1 ) ) m ( x N + 1 ) = k T C N − 1 t σ 2 ( x N + 1 ) = c − k T C N − 1 k p \left( t _ { N + 1 } | \mathbf { t } \right) = \mathcal { N } \left( \mathbf { t } _ { N + 1 } | m \left( \mathbf { x } _ { N + 1 } \right) , \sigma ^ { 2 } \left( \mathbf { x } _ { N + 1 } \right) \right) \\ \begin{aligned} m \left( \mathbf { x } _ { N + 1 } \right) & = \mathbf { k } ^ { \mathrm { T } } \mathbf { C } _ { N } ^ { - 1 } \mathbf { t } \\ \sigma ^ { 2 } \left( \mathbf { x } _ { N + 1 } \right) & = c - \mathbf { k } ^ { \mathrm { T } } \mathbf { C } _ { N } ^ { - 1 } \mathbf { k } \end{aligned} p(tN+1t)=N(tN+1m(xN+1),σ2(xN+1))m(xN+1)σ2(xN+1)=kTCN1t=ckTCN1k

这里有了均值和方差就定了:具有任意核函数 k ( x n , x m ) k \left( \mathbf { x } _ { n } , \mathbf { x } _ { m } \right) k(xn,xm) 的高斯过程回归的预测分布.

这里高斯过程回归的预测是一堆基函数的表示,也就是在函数空间

对应之前的线性回归的预测是一堆参数的表示,也就是在参数空间

学习超参数

第一次听到GP是用于神经网络超参数的搜索,这里终于看到了真身.

GP依赖于协方差函数的选择 ,而实际中用一组带有参数的函数来代替协方差函数,这组函数可以描述协方差矩阵的参数.举例如下:
k ( x n , x m ) = θ 0 exp ⁡ { − θ 1 2 ∥ x n − x m ∥ 2 } + θ 2 + θ 3 x n T x m k \left( \mathbf { x } _ { n } , \mathbf { x } _ { m } \right) = \theta _ { 0 } \exp \left\{ - \frac { \theta _ { 1 } } { 2 } \left\| \mathbf { x } _ { n } - \mathbf { x } _ { m } \right\| ^ { 2 } \right\} + \theta _ { 2 } + \theta _ { 3 } \mathbf { x } _ { n } ^ { \mathrm { T } } \mathbf { x } _ { m } k(xn,xm)=θ0exp{2θ1xnxm2}+θ2+θ3xnTxm
这里的参数 θ 0 , θ 1 . . . \theta_0,\theta_1... θ0,θ1...控制了协方差矩阵.不同参数的效果如下

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-NFwk75Pa-1580383052689)(https://ws3.sinaimg.cn/large/006tNbRwly1fy8nz32snmj30ny0hr40v.jpg)]

这里利用最大似然来估计参数.
ln ⁡ p ( t ∣ θ ) = − 1 2 ln ⁡ ∣ C N ∣ − 1 2 t T C N − 1 t − N 2 ln ⁡ ( 2 π ) \ln p ( \mathbf { t } | \boldsymbol { \theta } ) = - \frac { 1 } { 2 } \ln \left| \mathbf { C } _ { N } \right| - \frac { 1 } { 2 } \mathbf { t } ^ { \mathrm { T } } \mathbf { C } _ { N } ^ { - 1 } \mathbf { t } - \frac { N } { 2 } \ln ( 2 \pi ) lnp(tθ)=21lnCN21tTCN1t2Nln(2π)
求导,并利用矩阵求导公式
∂ ∂ x ( A − 1 ) = − A − 1 ∂ A ∂ x A − 1 ∂ ∂ x ln ⁡ ∣ A ∣ = Tr ⁡ ( A − 1 ∂ A ∂ x ) \begin{aligned} \frac { \partial } { \partial \mathbf { x } } \left( A ^ { - 1 } \right) & = - A ^ { - 1 } \frac { \partial A } { \partial \mathbf { x } } A ^ { - 1 } \\ \frac { \partial } { \partial \mathbf { x } } \ln | A | & = \operatorname { Tr } \left( A ^ { - 1 } \frac { \partial A } { \partial \mathbf { x } } \right) \end{aligned} x(A1)xlnA=A1xAA1=Tr(A1xA)
可以得到
∂ ∂ θ i ln ⁡ p ( t ∣ θ ) = − 1 2 Tr ⁡ ( C N − 1 ∂ C N ∂ θ i ) + 1 2 t T C N − 1 ∂ C N ∂ θ i C N − 1 t \frac { \partial } { \partial \theta _ { i } } \ln p ( \mathbf { t } | \boldsymbol { \theta } ) = - \frac { 1 } { 2 } \operatorname { Tr } \left( \mathbf { C } _ { N } ^ { - 1 } \frac { \partial \mathbf { C } _ { N } } { \partial \theta _ { i } } \right) + \frac { 1 } { 2 } \mathbf { t } ^ { \mathrm { T } } \mathbf { C } _ { N } ^ { - 1 } \frac { \partial \mathbf { C } _ { N } } { \partial \theta _ { i } } \mathbf { C } _ { N } ^ { - 1 } \mathbf { t } θilnp(tθ)=21Tr(CN1θiCN)+21tTCN1θiCNCN1t

自动相关性确定

⾼斯过程中的⾃动相关性确定: 通过最⼤似然⽅法进⾏的参数最优化,能 够将不同输⼊的相对重要性从数据中推断出来。

假定一个二维高斯过程 x = ( x 1 , x 2 ) \mathbf { x } = \left( x _ { 1 } , x _ { 2 } \right) x=(x1,x2),其核函数如下
k ( x , x ′ ) = θ 0 exp ⁡ { − 1 2 ∑ i = 1 2 η i ( x i − x i ′ ) 2 } k \left( \mathbf { x } , \mathbf { x } ^ { \prime } \right) = \theta _ { 0 } \exp \left\{ - \frac { 1 } { 2 } \sum _ { i = 1 } ^ { 2 } \eta _ { i } \left( x _ { i } - x _ { i } ^ { \prime } \right) ^ { 2 } \right\} k(x,x)=θ0exp{21i=12ηi(xixi)2}
不同的参数 η i \eta _ { i } ηi的影响如下: 当 η i \eta _ { i } ηi变小的时候,核函数变的对相应的输入 x i x_i xi 不敏感了.

我们首先看看,根据参数 η i \eta_i ηi来输入 x i x_i xi的影响.下右图: 参数 η 2 \eta_2 η2变小了,那么在其相应的输入 x 2 x_2 x2下,输出变得较为稳定了.直观理解就是上式中$\eta _ { i } \left( x _ { i } - x _ { i } ^ { \prime } \right) ^ { 2 } $变小了,影响自然也下降.

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-vtvhbWwB-1580383052690)(https://ws4.sinaimg.cn/large/006tNbRwly1fy8ohlkmgpj31010d1gnq.jpg)]

另一个角度,根据输入 x i x_i xi来看看参数 η i \eta_i ηi.

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-RExVYdfr-1580383052690)(https://ws3.sinaimg.cn/large/006tNbRwly1fy8ovn5sunj30ss0g4ju7.jpg)]

高斯过程分类

GP分类的预测在整个实数轴上,如果分类需要进行放缩(sigmoid来放缩).

这里通过 σ \sigma σ函数将高斯过程 a ( x ) a ( \mathbf { x } ) a(x) 变成了非高斯的随机过程 y y y.

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-UvTPYdFo-1580383052690)(https://ws2.sinaimg.cn/large/006tNbRwly1fy8p1so66rj311d0emq4n.jpg)]

与前面的回归类似,分类问题可以认为是基于之前的输入 x 1 , … , x N \mathbf { x } _ { 1 } , \dots , \mathbf { x } _ { N } x1,,xN和输出 t N = ( t 1 , … , t N ) T \mathbf { t } _ { N } = \left( t _ { 1 } , \ldots , t _ { N } \right) ^ { \mathrm { T } } tN=(t1,,tN)T ,对新的输入 x N + 1 \mathbf{x}_{N+1} xN+1 进行预测(求 t N + 1 t_{N+1} tN+1).写成条件概率的形式就是
p ( t N + 1 ∣ t N ) p \left( t _ { N + 1 } | \mathbf { t } _ { N }\right) p(tN+1tN)
只不过这里的高斯过程换成了 a a a,而预测的 t N + 1 t_{N+1} tN+1 是非高斯过程.
p ( a N + 1 ) = N ( a N + 1 ∣ 0 , C N + 1 ) p \left( \mathbf { a } _ { N + 1 } \right) = \mathcal { N } \left( \mathbf { a } _ { N + 1 } | \mathbf { 0 } , \mathbf { C } _ { N + 1 } \right) p(aN+1)=N(aN+10,CN+1)
同时,在分类时,我们假定所有label都是正确的,所以协方差矩阵没有像分类一样叠加了一个噪声项 β − 1 δ n m \beta ^ { - 1 } \delta _ { n m } β1δnm. 这里的 ν \nu ν看起来像噪声,实际是为了保证协方差正定引入的.

对于2分类,将 t N + 1 t _ { N + 1 } tN+1预测为1的概率
p ( t N + 1 = 1 ∣ t N ) = ∫ p ( t N + 1 = 1 ∣ a N + 1 ) p ( a N + 1 ∣ t N ) d a N + 1 p ( t N + 1 = 1 ∣ a N + 1 ) = σ ( a N + 1 ) \begin{aligned} p \left( t _ { N + 1 } = 1 | \mathbf { t } _ { N } \right) & = \int p \left( t _ { N + 1 } = 1 | a _ { N + 1 } \right) p \left( a _ { N + 1 } | \mathbf { t } _ { N } \right) \mathrm { d } a _ { N + 1 } \\ p \left( t _ { N + 1 } = 1 | a _ { N + 1 } \right) & = \sigma \left( a _ { N + 1 } \right) \end{aligned} p(tN+1=1tN)p(tN+1=1aN+1)=p(tN+1=1aN+1)p(aN+1tN)daN+1=σ(aN+1)
那么问题来了:上面这个积分怎么解决? 目前有3种方法:

  • variational inference
  • expectation propagation
  • Laplace approximation (下一节重点)

拉普拉斯近似

关于拉普拉斯近似的详细介绍见 PRML 4.4 . 简而言之,laplace approximation就是使用Gaussian去近似一个连续变量的概率密度函数,这个Gaussian是以后验分布的概率的众数为中心的。

注: 本节的 a N \mathbf { a } _ { N } aN就是前面的 t N \mathbf { t } _ { N } tN.

上节说到, p ( t N + 1 = 1 ∣ t N ) p \left( t _ { N + 1 } = 1 | \mathbf { t } _ { N } \right) p(tN+1=1tN) 不好求解.
p ( a N + 1 ∣ t N ) = ∫ p ( a N + 1 , a N ∣ t N ) d a N = 1 p ( t N ) ∫ p ( a N + 1 , a N ) p ( t N ∣ a N + 1 , a N ) d a N = 1 p ( t N ) ∫ p ( a N + 1 ∣ a N ) p ( a N ) p ( t N ∣ a N ) d a N = ∫ p ( a N + 1 ∣ a N ) p ( a N ∣ t N ) d a N \begin{aligned} p \left( a _ { N + 1 } | \mathbf { t } _ { N } \right) & = \int p \left( a _ { N + 1 } , \mathbf { a } _ { N } | \mathbf { t } _ { N } \right) \mathrm { d } \mathbf { a } _ { N } \\ & = \frac { 1 } { p \left( \mathbf { t } _ { N } \right) } \int p \left( a _ { N + 1 } , \mathbf { a } _ { N } \right) p \left( \mathbf { t } _ { N } | a _ { N + 1 } , \mathbf { a } _ { N } \right) \mathrm { d } \mathbf { a } _ { N } \\ & = \frac { 1 } { p \left( \mathbf { t } _ { N } \right) } \int p \left( a _ { N + 1 } | \mathbf { a } _ { N } \right) p \left( \mathbf { a } _ { N } \right) p \left( \mathbf { t } _ { N } | \mathbf { a } _ { N } \right) \mathrm { d } \mathbf { a } _ { N } \\ & = \int p \left( a _ { N + 1 } | \mathbf { a } _ { N } \right) p \left( \mathbf { a } _ { N } | \mathbf { t } _ { N } \right) \mathrm { d } \mathbf { a } _ { N } \end{aligned} p(aN+1tN)=p(aN+1,aNtN)daN=p(tN)1p(aN+1,aN)p(tNaN+1,aN)daN=p(tN)1p(aN+1aN)p(aN)p(tNaN)daN=p(aN+1aN)p(aNtN)daN
其中 p ( t N ∣ a N + 1 , a N ) = p ( t N ∣ a N ) p \left( \mathbf { t } _ { N } | a _ { N + 1 } , \mathbf { a } _ { N } \right) = p \left( \mathbf { t } _ { N } | \mathbf { a } _ { N } \right) p(tNaN+1,aN)=p(tNaN) .上述积分中

  • 第一项是高斯过程, p ( a N + 1 ∣ a N ) = N ( a N + 1 ∣ k T C N − 1 a N , c − k T C N − 1 k ) p \left( a _ { N + 1 } | \mathbf { a } _ { N } \right) = \mathcal { N } \left( a _ { N + 1 } | \mathbf { k } ^ { \mathrm { T } } \mathbf { C } _ { N } ^ { - 1 } \mathbf { a } _ { N } , c - \mathbf { k } ^ { \mathrm { T } } \mathbf { C } _ { N } ^ { - 1 } \mathbf { k } \right) p(aN+1aN)=N(aN+1kTCN1aN,ckTCN1k)
  • 第二项是后验分布,如果我们能通过拉普拉斯近似找到一个高斯分布

那么, p ( t N + 1 = 1 ∣ t N ) p \left( t _ { N + 1 } = 1 | \mathbf { t } _ { N } \right) p(tN+1=1tN)就变成对2个高斯分布的积分,可以求解.

现在核心问题变成了第二项:后验怎么求?

后验=先验*似然(省略归一化)

  • 先验:前面已经得到,

ln ⁡ p ( t ∣ θ ) = − 1 2 ln ⁡ ∣ C N ∣ − 1 2 t T C N − 1 t − N 2 ln ⁡ ( 2 π ) \ln p ( \mathbf { t } | \boldsymbol { \theta } ) = - \frac { 1 } { 2 } \ln \left| \mathbf { C } _ { N } \right| - \frac { 1 } { 2 } \mathbf { t } ^ { \mathrm { T } } \mathbf { C } _ { N } ^ { - 1 } \mathbf { t } - \frac { N } { 2 } \ln ( 2 \pi ) lnp(tθ)=21lnCN21tTCN1t2Nln(2π)

​ 把上式中的 t t t换成 a a a ,就得到 p ( a N ) p(\boldsymbol { a } _ { N }) p(aN)

  • 似然: 由现有的数据及其预测得到,
    p ( t N ∣ a N ) = ∏ n = 1 N σ ( a n ) t n ( 1 − σ ( a n ) ) 1 − t n = ∏ n = 1 N e a n t n σ ( − a n ) σ ( a n ) t n ( 1 − σ ( a n ) ) 1 − t n = ( e a n 1 + e a n ) t n ( 1 e a n + 1 ) 1 − t n = e a n t n 1 1 + e a n p \left( \mathbf { t } _ { N } | \mathbf { a } _ { N } \right) = \prod _ { n = 1 } ^ { N } \sigma \left( a _ { n } \right) ^ { t _ { n } } \left( 1 - \sigma \left( a _ { n } \right) \right) ^ { 1 - t _ { n } } = \prod _ { n = 1 } ^ { N } e ^ { a _ { n } t _ { n } } \sigma \left( - a _ { n } \right) \\ \sigma \left( a _ { n } \right) ^ { t _ { n } } \left( 1 - \sigma \left( a _ { n } \right) \right) ^ { 1 - t _ { n } }=(\frac{e^{a_n}}{1+e^{a_n}})^{t_n}(\frac{1}{e^{a_n}+1})^{1-t_n}=e ^ { a _ { n } t _ { n } }\frac{1}{1+e^{a_n}} p(tNaN)=n=1Nσ(an)tn(1σ(an))1tn=n=1Neantnσ(an)σ(an)tn(1σ(an))1tn=(1+eanean)tn(ean+11)1tn=eantn1+ean1

  • 结合先验和似然,得到后验的表达形式

Ψ ( a N ) = ln ⁡ p ( a N ) + ln ⁡ p ( t N ∣ a N ) = − 1 2 a N T C N − 1 a N − N 2 ln ⁡ ( 2 π ) − 1 2 ln ⁡ ∣ C N ∣ + t N T a N − ∑ n = 1 N ln ⁡ ( 1 + e a n ) \begin{aligned} \Psi \left( \boldsymbol { a } _ { N } \right) = & \ln p \left( \boldsymbol { a } _ { N } \right) + \ln p \left( \mathbf { t } _ { N } | \boldsymbol { a } _ { N } \right) \\ = & - \frac { 1 } { 2 } \boldsymbol { a } _ { N } ^ { T } \boldsymbol { C } _ { N } ^ { - 1 } \boldsymbol { a } _ { N } - \frac { N } { 2 } \ln ( 2 \pi ) - \frac { 1 } { 2 } \ln \left| \boldsymbol { C } _ { N } \right| + \mathbf { t } _ { N } ^ { T } \boldsymbol { a } _ { N } \\ & - \sum _ { n = 1 } ^ { N } \ln \left( 1 + e ^ { a _ { n } } \right) \end{aligned} Ψ(aN)==lnp(aN)+lnp(tNaN)21aNTCN1aN2Nln(2π)21lnCN+tNTaNn=1Nln(1+ean)

目前我们已经有了后验的表达形式,如何来拉普拉斯近似来解呢?

  1. 找到后验分布的众数

    后验求导,并代入

[ ln ⁡ ( 1 + e x ) ] ′ = e x 1 + e x = 1 1 + e − x = σ ( x ) [\ln(1+e^x)]'=\frac{e^x}{1+e^x}=\frac{1}{1+e^{-x}}=\sigma(x) [ln(1+ex)]=1+exex=1+ex1=σ(x)

​ 得到
∇ Ψ ( a N ) = t N − σ N − C N − 1 a N \nabla \Psi \left( \boldsymbol { a } _ { N } \right) = \mathbf { t } _ { N } - \boldsymbol { \sigma } _ { N } - \boldsymbol { C } _ { N } ^ { - 1 } \boldsymbol { a } _ { N } Ψ(aN)=tNσNCN1aN
​ 其中, σ N \boldsymbol { \sigma } _ { N } σN是元素为 σ ( a n ) \sigma(a_n) σ(an)的向量. 这里由于 σ N \boldsymbol { \sigma } _ { N } σN a N \boldsymbol { a } _ { N } aN的非线性关系, 所以令一阶导为零没有闭式解.利用二阶导和IRLS算法我们可以找到众数 a N ⋆ \mathbf { a } _ { N } ^ { \star } aN.

  1. 计算以众数 a N ⋆ \mathbf { a } _ { N } ^ { \star } aN为中心的高斯分布$q \left( \mathbf { a } _ { N } \right) $ .
    q ( a N ) = N ( a N ∣ a N ⋆ , H − 1 ) q \left( \mathbf { a } _ { N } \right) = \mathcal { N } \left( \mathbf { a } _ { N } | \mathbf { a } _ { N } ^ { \star } , \mathbf { H } ^ { - 1 } \right) q(aN)=N(aNaN,H1)

到这里, p ( a N + 1 ∣ t N ) p \left( a _ { N + 1 } | \mathbf { t } _ { N } \right) p(aN+1tN)已经可以解了,分别将2个高斯分布代入得到,最终 p ( a N + 1 ∣ t N ) p \left( a _ { N + 1 } | \mathbf { t } _ { N } \right) p(aN+1tN) 是一个高斯分布,均值方差如下
E [ a N + 1 ∣ t N ] = k T ( t N − σ N ) var ⁡ [ a N + 1 ∣ t N ] = c − k T ( W N − 1 + C N ) − 1 k \begin{aligned} \mathbb { E } \left[ a _ { N + 1 } | \mathbf { t } _ { N } \right] & = \mathbf { k } ^ { \mathrm { T } } \left( \mathbf { t } _ { N } - \boldsymbol { \sigma } _ { N } \right) \\ \operatorname { var } \left[ a _ { N + 1 } | \mathbf { t } _ { N } \right] & = c - \mathbf { k } ^ { \mathrm { T } } \left( \mathbf { W } _ { N } ^ { - 1 } + \mathbf { C } _ { N } \right) ^ { - 1 } \mathbf { k } \end{aligned} E[aN+1tN]var[aN+1tN]=kT(tNσN)=ckT(WN1+CN)1k
接下来,我们需要确定 协方差函数的参数 θ \theta θ. 最大似然即可

参考

  1. https://www.zhihu.com/question/46631426
  2. PRML
  3. http://blog.videolectures.net/100-most-popular-machine-learning-talks-at-videolectures-net/
  4. MLAPP
  5. http://www.52nlp.cn/prml读书会第六章-kernel-methods
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值