古典概型
即等可能概型,空间中包含有限个元素,每个元素出现的概率是一样的,例如掷硬币。
条件概率
P(B|A)表示在发生A的情况下发生B。
独立性
P(AB)表示既发生了A也发生了B。P(AB)=P(A)P(B),则AB相互独立。
***通常说的分布指概率密度 ***
离散型随机变量及其分布律
(0-1)分布
伯努利试验&二项分布
伯努利试验即重复n次的独立(0-1)分布试验,其分布称之为二项分布,表示为X~b(n,p),n为重复的次数,p为正项的概率。
泊松分布
随机变量X的取值为0,1,2,3,4,5,6…而各个取值的概率为
泊松分布具有强大的现实意义。请查看知乎这个大神。知乎链接
离散型随机变量的分布函数
F(x) = P{X<=x},即分布函数是分布律的积分(从-00积分到x)
连续型随机变量及其概率密度&分布函数
分布函数依旧是概率密度的积分。概率密度可以近似的理解为在某个点的概率。
常见的连续型随机变量的分布
均匀分布
指数分布
正态分布
正态分布的几个特征点:
1.对称轴
2.极值点
3.一个标准差之间:68.26%,二个标准差之间:95.44%,三个标准差之间:95.74%,这就是“3detha法则”。
二维随机变量的概率密度及其分布
和一维的概念一致,计算方法、公式等一样。
二维随机变量的边缘分布
对另外一个做积分。
二维正态分布
略
随机变量的数学特征(统计特征)
均值
方差、标准差
协方差&相关系数
协方差
协方差的意义是:X,Y在变化的过程中是不是同向变化?即X变大,Y也变大?COV为正则表示是同向变化,为负责表示反向变化。数值越大,表示同向or反向程度越大。
相关系数
相关系数是进化版的协方差。协方差存在一个问题,就是X,Y本身方差的数值会影响协方差的数值,相关系数就是剔除这个影响。
矩&协方差矩阵
k阶原点矩
k阶中心矩
协方差矩阵
大数定律
我的理解:数据量越大,观测值的统计特征越接近于理论值。
中心极限定律
直方图
箱线图
极大似然估计法
应用于离散型,独立同分布。
我的理解:就是参数为什么值时,发生现在这种情况的概率最大?然后我们就取参数为该值。
计算步骤:
step1,计算似然函数:
注意,将现在情况的数值带入到似然函数中。
step2,取对数:
纯粹是为了方便计算
step3:对数求导等于0即为解。