概率论中,对于两个独立事件,它们的联合概率为 P ( A , B ) = P ( A ∣ B ) P ( B ) = P ( B ∣ A ) P ( A ) P(A,B)=P(A\mid B)P(B)=P(B\mid A)P(A) P(A,B)=P(A∣B)P(B)=P(B∣A)P(A)进一步,得到贝叶斯公式: P ( B ∣ A ) = P ( A ∣ B
先验概率、后验概率、贝叶斯公式
最新推荐文章于 2024-07-01 23:43:04 发布
本文介绍了概率论中的关键概念,包括先验概率、后验概率和贝叶斯公式。通过公式P(B∣A)=P(A)P(A∣B)P(B)P(A)=P(A∣B)P(B)+P(A∣Bˉ)P(Bˉ),阐述了如何在机器学习中应用这些概念。在机器学习中,将数据表示为A,模型表示为B,似然概率P(D∣M)、先验概率P(M)、事实概率P(D)和后验概率P(M∣D)被用来估计模型参数并进行统计推断。
摘要由CSDN通过智能技术生成