去年,包括今年刚开始看的一些算法、机器学习的一些书,提到的一些公式,感觉似懂非懂,之前大学老师教的知识全都还给老师了,这周开始早上早点来公司,抽半小时开始从概率论的一些基础学起,学了两、三天了,结合一些相关视频,慢慢对一些公式也熟悉起来。
想要学好后面的机器学习,还是不要操之过急,先从基础复习起来,之前大学的知识点慢慢捡起来吧。每天学一点
今天看公式,提到了贝叶斯公式、全概率公式
1、全概率公式
讲全概率之前,提到了完备事件
什么是完备事件?
若事件A1 U A2 U A3....UAn=Ω, AiAj =空,1<=i != j <=n
则称事件A1,A2,....An是一组完备事件组
全概率公式
A1,A2,....An是完备事件组,且P(Ai)>0, i=1,2,...n
则:P(B)=P(A1B)+P(A2B)+P(A3B)+....+P(AnB)
P(B) =
2、贝叶斯公式
所谓贝叶斯公式,是指当分析样本大到接近总体数时,样本中事件发生的概率将接近于总体中事件发生的概率。是概率统计中的应用所观察到的现象对有关概率分布的主观判断(即先验概率)进行修正的标准方法。公式如下:
P(A|B)=
注:P(A):没有数据的支持下,A发生的概率,也叫先验概率
注:P(A|B):在数据B的支持下,A发生的概率,也叫后验概率
注:P(B|A):给定某参数A的概率分布:也叫似然函数
该公式又可写为:
P(Bi|A)=