概率只是一种削减计算量的常识———拉普拉斯
离散分布
对于离散分布的内容主要需要记住假设有一个离散集
X
,
基本规则
两个事件的并集概率
p(A∨B)=p(A)+p(B)−p(A∧B)
两个事件的联合概率
P(A,B)=P(A∧B)=p(A|B)p(B)
边缘分布概率如下
P(A)=∑bP(A,B)=∑bP(A|B=b)p(b)
条件概率
p(A|B)=p(A,B)p(B) if p(B)>0
贝叶斯公式
p(X=x|Y=y)=p(X=x,Y=y)p(Y=y)=p(Y=y|X=x)p(X=x)p(Y=y)
生成模型和判别模型
生成模型最终需要求解的是 p(y=c|x,θ) ,并根据其条件密度 p(x|y=c) 和先验概率p(y=c)来进行求解,而另外一种模型判别式模型我们会尝试直接拟合 p(y=c|x)
连续变量
对于连续变量,我们一般会用两种表示方式来进行表达,一种是累计分布函数cdf,一种是概率密度函数pdf,他们的关系如下 f(x)=ddxF(x)
平均和方差
分布的平均数,或者叫做期望,一般使用符号 μ 表示,如果是离散值 μ=∑x∈Xxp(x) ,而连续变量的分布是 μ=∫Xxp(x)
中心极限定理
当随机分布的的均值是 μ ,方差是 σ2 的时候,如果变量 Xi 相互独立,从任意一个总体中抽取样本量为n的样本,当n充分大时,样本均值的抽样分布近似服从均值为μ、方差为 σ2/n 的正态分布。
蒙特卡洛方法
有的时候我们直接使用变量的变化来计算随机分布的分布函数是挺困难的,但是蒙特卡洛方法提供了一种便利的手段来让我们估计样本的参数。随着随机样本数的提升,蒙特卡洛方法会越来越精确。
蒙特卡洛方法的基础公式如下
使用蒙特卡洛估计我们可以有如下一些参数估计
- x¯=1S∑Ss=1xs
- var[X]=1S∑Ss=1(xs−x¯)
信息论
熵
熵是来量化系统复杂度的一个值,其取值区间为非负数。当熵越大时,系统越复杂
H(x)=−∑Kk=1p(X=k)logp(X=k)
当然,对于连续值
H(x)=−∫p(x)logp(x)
KL散度
KL散度,又被叫做相对熵,是描述两个概率分布P和Q差异的一种方法。
具体计算方式如下
KL(p||q)=∑Kk=1pklogpkqk
互信息
当我们有两个不同的变量的时候,我们需要知道其中一个和另外一个是否有对应关系的时候,我们可以计算他们的相关系数,同时也可以计算他们的互信息。因为,我们主要关注的是
p(x,y)
和
p(x)p(y)
之间的对应关系,所以我们计算
p(x,y)
和
p(x)p(y)
的KL散度,即可。
KL(p(x,y)||p(x)p(y))=∑x∑yp(x,y)logp(x,y)p(x)p(y)