贝叶斯公式
概率可以理解为某一件事情发生的可能性,记为 P(A)
我们可以使用文氏图的方式进行表示为:
其中为必然事件
通过这个情况,我们其实可以将P(A)修改为P(A| Ω)= pA/pΠ
代表Ω条件下A发生的概率
联合概率 :P(AB)以Π为底
如果想要求出AB两个事情同时发生的概率,就需要 计算他们的交集,概率记为P(AB)
条件概率:P(AB)以p(A)为底
设A,B为任意两个事件,若P(A)>0,我们称在已知事件A发生的条件下,事件B发生的概率为条件概率, 记为P(B|A)(这里的”|A“又叫givenA)
全概率公式:各段概率所求概率之和(与直接计算的结果相同)
贝叶斯公式(又称逆概公式)
我们可以通过贝叶斯公式,可以通过某件事情发生条件,来预测某些条件下,发生这件事情的概率
如果将贝叶斯公式的思想使用到机器学习中,效能是不是很大,可以预测类别?
不可行 ,因为在显示过程中特征值不只有一个,很难去计算概率,计算复杂度很高(要把各个特征值都求出来才能开始利用条件概率)
朴素贝叶斯法是在贝叶斯定理的条件上进行了特征条件独立假设的分类方法 。最为广泛的两种分类模型是决策 树模型(Decision Tree Model)和朴素贝叶斯模型(Naive Bayesian Model,NBM)。
贝叶斯定理是关于随机事件A和B的条件概率(或边缘概率)的