本文主要依据Pattern Recognition and Machine Learing第三章的内容展开。
1线性模型
假设有一个 D 维的输入
t=∑i=0Mwiϕi(x)
其中, ϕ0(x)=1 , w0 为偏置项,则上式可以简记为:
t=y(x,w)=∑i=0Mwiϕi(x)=w⊤ϕ(x)
其中 w=(w0,…,wM)⊤ , ϕ=(ϕ0,…,ϕM)⊤ 。
当有 N 个
由此可见,虽然模型叫做贝叶斯线性回归模型,但它的线性是体现在参数 w 上。而这个模型的线性与否实际上取决于 ϕ(x) ,我们将其称为基函数。下面简要介绍线性基函数、多项式基函数和高斯基函数。
1.1线性基函数
在所有基函数中,最为简单的便是线性基函数,它是令:
y(x,w)=w0+w1x1+⋯+wDxD
其中
x=(x1,…,xD)⊤
1.2多项式基函数
在多项式基函数中,最简单的基函数是单变量 x 的一元多项式按照幂次大小进行组合,此时:
当输入变量为多维时,基函数会变得较为复杂,例如当 x=(x1,x2) 时:
y(x,w)=w0+w11x1+w12x2+w21x21+w22x1x2+w23x22+⋯+wM1xM1+⋯
因此,通常情况下,我们使用多项式作为基函数时,会假定其输入变量 x 的维度 D 和基函数个数
1.3高斯基函数
高斯基函数又称径向基函数RBF,形如:
ϕi(