Bayesian_Inference_Bayesian_Estimation

Cr. Dr. Liang Liu 刘亮博士口述,本人留笔记
课程教材https://book.phylolab.net/binf8441/chap12.html

Bayesian Estimation

以前的信息叫 prior
现在的信息叫 likelihood

Bayesian inference 它并不强调是说你某个单一的样本,对于参数的这个估计,它是说假如说你以后又采取了新的样本的话,那么你还应该用原来的样本,然后加上新的样本,也就是说你应该再学习。它实际上是指一直在持续学习的这么一个过程。

Prior

Bayesian inference 是跟这个likelihood,也就是说 frequencist 是最大的不同,就是这个prior。那么这个prior是什么意思呢?它也中文叫先验分布,他的意思是说,把你以前的那些信息如何也能够加进来,以前那些信息也未必都是主观的,以前的有很多信息其实也都是客观,也是通过数据来去得到的。

你在 Bayesian inference 的时候呢,做具体数据的分析,比如说你现在手头儿有一个真实的数据的话,那么你怎么去选择这个prior呢?如果假如说你读文章,别人已经做过相应的这些数据分析了,然后你把以前那些数据也拿过来了,然后你通过以前那个数据,大概其能够知道这个他的prior的概率分布,那么你就可以定它的prior,这是一种。这种 prior 呢,就是通过前人以前的这些结论,结果得到的这个prior。

还有一种呢,就是假如说你这个是全新你自己做的,以前没有任何数据做相应的研究的话,那么你可以去 assume 一个叫做non informative的prior,比如说所谓的prior就是你对于这个参数,它是分布是什么样。

假如说你觉得你不知道这个参数的分布是什么样的,那么你就可以assume它是uniform的,比如说你的参数是是一个mutation rate。mutation rate一般都是在零到一之间,对吧?假如说你说我不知道它哪个零到一之间,任何一个数儿它都有可能,而且它可能的概率可能是一样的,那你就可以用这个uniform prior,那有的人呢,给这个uniform prior还起了一个名字叫做non-informative,也就是说你你认为它任何一个数儿的equally likely,你没有任何的preference,那么他就认为这是non_informative的。

如果你用 non-informative 的 prior去做 Bayesian inference 的话,那么你的所有的 inference 的信息的来源绝大部分是通过 likelihood 获得来的,是通过手头数据来的,而不是通过你的prior,因为你的prior并不给你任何信息,你认为它的那个参数值,所有的参数值,它的概率都是一样的。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

ZeroSnowy

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值