贝叶斯方法与Ridge回归有什么联系?废话少说,我们直接来看。
为了方便说明问题,考虑一维的自变量,将一系列自变量排成向量的形式: x = ( x 1 , ⋯ , x N ) T \mathbf{x}=(x_1,\cdots,x_N)^T x=(x1,⋯,xN)T,对应的目标函数为 t = ( t 1 , ⋯ , t N ) T \mathbf{t}=(t_1,\cdots,t_N)^T t=(t1,⋯,tN)T。
我们假设样本中每个 t t t都独立,且服从正态分布,分布的均值为 y ( x , w ) = ∑ j = 0 M w j x j y(x,\mathbf{w})=\sum_{j=0}^{M} w_j x^j y(x,w)=∑j=0Mwjxj(也可以不指定形式,只要是关于 x x x和 w \mathbf{w} w的函数即可),方差的倒数为 β \beta β,则似然函数为
p (