贝叶斯网络数学基础之信息论

不知道大家想过怎么一个问题没有,我们都知道是上帝创造了一切,而谁创造了上帝呢?我们今天探讨的就类似于这么一个问题。我们一直都在那里聊一个模型有一个参数,这个参数通过某种方式去来得到它估计它,那么这个参数又受什么东西来控制呢?我们不断地去来做这么一个东西就得到了贝叶斯网络。第一个我们可以建立一个高斯朴素贝叶斯的模型来对任何我们想做的东西进行建模,然后做估计,比如我们认为鸢尾花数据是服从高斯的朴素贝叶斯的模型的,我们就可以去来对这么一个东西建模。

不知道大家还记不记得相对熵这么一个概念:

            

p是一个随机变量,q是一个随机变量,这两个随机变量或者是概率密度我们总能去求它的相对熵的,而相对熵其实可以认为是后面这个东西求期望的一个结果,而这个结果其实可以度量两者的距离,并且这两个距离是不对称的。我们其实是可以通过相对熵来去定义这个互信息的:

           

       

还记得我们在极大似然估计里边谈到的一个概念MLE吗?就是说我们如果如果根据这个贝叶斯公式P(A|D)这么个东西求概率就能推导出这么个东西\frac{P(D|A)P(A)}{P(D)},我们一般怎么去来推导这个事情呢?如果说我们再来给定样本看看能够根据样本得出哪些结论,推出了A1,A2,……,An若干条结论,哪个结论是最有可能的正确结论,然后呢我们就算一下P(A_1|D)这个概率,P(A_2|D)这个概率,一直算到P(A_n|D)它的概率,然后选取其中最大的一个作为最后的结论。然后再带入得到这么一个东西:

  

我们知道这个D是样本那么什么是P(D)呢?就是样本的概率,它是一个固定值因此把它扔了就是了。就只剩下分子部分,我们来做一个大胆的假定,认为P(Ai)的值是近似的相等的,也就是P(A1),P(A2)一直到P(An)它们的值近似相等,再求它们俩的乘积谁大谁小,也就意味着求这么个东西谁大谁小:P(D|Ai)。最后就把求P(Ai|D)的最大变成了求P(D|Ai)的最大。我们用极大似然估计做的就是这么一个东西,取什么样的参数的时候能够使得它的概率最大,那个参数就是我们最后估计的结果。这不就是极大似然估计嘛,所以说极大似然估计其实假定了任何一组参数取到的概率相等或者近似相等。所以现在引出这么一个题目:

          

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值