Cr. Dr. Liang Liu 刘亮博士口述,本人留笔记
课程教材https://book.phylolab.net/binf8441/chap12.html
Bayesian Estimation
以前的信息叫 prior
现在的信息叫 likelihood
Bayesian inference 它并不强调是说你某个单一的样本,对于参数的这个估计,它是说假如说你以后又采取了新的样本的话,那么你还应该用原来的样本,然后加上新的样本,也就是说你应该再学习。它实际上是指一直在持续学习的这么一个过程。
Prior
Bayesian inference 是跟这个likelihood,也就是说 frequencist 是最大的不同,就是这个prior。那么这个prior是什么意思呢?它也中文叫先验分布,他的意思是说,把你以前的那些信息如何也能够加进来,以前那些信息也未必都是主观的,以前的有很多信息其实也都是客观,也是通过数据来去得到的。
你在 Bayesian inference 的时候呢,做具体数据的分析,比如说你现在手头儿有一个真实的数据的话,那么你怎么去选择这个prior呢?如果假如说你读文章,别人已经做过相应的这些数据分析了,然后你把以前那些数据也拿过来了,然后你通过以前那个数据,大概其能够知道这个他的prior的概率分布,那么你就可以定它的prior,这是一种。这种 prior 呢,就是通过前人以前的这些结论,结果得到的这个prior。
还有一种呢,就是假如说你这个是全新你自己做的,以前没有任何数据做相应的研究的话,那么你可以去 assume 一个叫做non informative的prior,比如说所谓的prior就是你对于这个参数,它是分布是什么样。
假如说你觉得你不知道这个参数的分布是什么样的,那么你就可以assume它是uniform的,比如说你的参数是是一个mutation rate。mutation rate一般都是在零到一之间,对吧?假如说你说我不知道它哪个零到一之间,任何一个数儿它都有可能,而且它可能的概率可能是一样的,那你就可以用这个uniform prior,那有的人呢,给这个uniform prior还起了一个名字叫做non-informative,也就是说你你认为它任何一个数儿的equally likely,你没有任何的preference,那么他就认为这是non_informative的。
如果你用 non-informative 的 prior去做 Bayesian inference 的话,那么你的所有的 inference 的信息的来源绝大部分是通过 likelihood 获得来的,是通过手头数据来的,而不是通过你的prior,因为你的prior并不给你任何信息,你认为它的那个参数值,所有的参数值,它的概率都是一样的。