贝叶斯定理:通过观察到的数据D D ,把先验概率p(θ)转化为后验概率p(θ∣D) p ( θ ∣ D )
p(θ∣D)=p(D∣θ)p(θ)∫p(D∣θ)p(θ)dθ=p(D∣θ)p(θ)p(D) p ( θ ∣ D ) = p ( D ∣ θ ) p ( θ ) ∫ p ( D ∣ θ ) p ( θ ) d θ = p ( D ∣ θ ) p ( θ ) p ( D )
显然,分母是一个归一化常数。故有p(θ∣D)∝p(D∣θ)p(θ) p ( θ ∣ D ) ∝ p ( D ∣ θ ) p ( θ ) 即后验∝似然×先验 后 验 ∝ 似 然 × 先 验 。
贝叶斯线性回归
问题是这样的,不能够一次性接收到整个数据集,而是不断接收到小的数据集Di,i=1,2,...,n D i , i = 1 , 2 , . . . , n ,同时由于存储的限制不能存储已经接收到的所有数据集,每次可以处理的数据仅为Di D i 。这就导致不能对所有数据做线性回归,但是可以通过贝叶斯线性回归达到同样的效果。
第i i 个数据集Di D i 中有m m 个训练样本,构成 (X(i),y(i))
p(y(i)∣X(i),θ)=N(y(i);X(i)θ,I)∝exp(−12(y(i)−X(i)θ)T(y(i)−X(i)θ)) p ( y ( i ) ∣ X ( i ) , θ ) = N ( y ( i ) ; X ( i ) θ , I ) ∝ e x p ( − 1 2 ( y ( i ) − X ( i ) θ ) T ( y ( i ) − X ( i ) θ ) )