贝叶斯定理: P ( C ∣ x ) = P ( x ∣ C ) P ( C ) P ( x ) P(C|x) = \frac{P(x|C)P(C)}{P(x)} P(C∣x)=P(x)P(x∣C)P(C)
- x:观察变量
- C:一个潜在特性
- P ( C ∣ x ) P(C|x) P(C∣x):后验概率
- P ( C ) P(C) P(C):先验概率
- P ( x ∣ C ) P(x|C) P(x∣C):似然性 likelihood
贝叶斯分类:最大化后验概率策略
对于具备 n 个特征的观测值
x
=
(
x
1
,
x
2
,
.
.
.
,
x
n
)
x=(x_1,x_2, ...,x_n)
x=(x1,x2,...,xn),属于第 k 个分类的概率记为:
P ( C k ∣ x ) = P ( C k ∣ x 1 , x 2 , . . . , x n ) P(C_k|x) = P(C_k|x_1,x_2,...,x_n) P(Ck∣x)=P(Ck∣x1,x2,...,xn)
若特征间相互独立,则
P ( x i ∣ x i + 1 , . . . , x n , C k ) = P ( x i ∣ C k ) P(x_i|x_{i+1},...,x_n,C_k) = P(x_i|C_k) P(xi∣xi+1,...,xn,Ck)=P(xi∣Ck)
P ( x ∣ C k ) P ( C k ) = P ( x 1 ∣ C k ) P ( x 2 ∣ C k ) . . . P ( x n ∣ C k ) P ( C k ) P(x|C_k)P(C_k) = P(x_1|C_k)P(x_2|C_k) ...P(x_n|C_k)P(C_k) P(x∣Ck)P(Ck)=P(x1∣Ck)P(x2∣Ck)...P(xn∣Ck)P(Ck)
总体中 x 的发生概率是不变的,所以只需要寻找使分子最大的类别即可。因此朴素贝叶斯模型的关键在于计算第 k 类在总体中的先验概率以及第 k 类中观察到 X 时的条件概率。
模型 | 描述 | 构建模型的函数 |
---|---|---|
高斯模型 | 在每一个中都服从高斯分布(正太分布)的连续值 | sklearn.native_bayes.GaussianNB |
Multinomial(多项式)模型 | x i x_i xi:特征 i i i 发生的频次; x x x:n个特征的直方图 | sklearn.native_bayes.MultinomiaNB |
Bernoulli(伯努利)模型 | x i x_i xi:特征 i i i 发生 / 不发生; x x x:n 个特征发生与否的二进制序列 | sklearn.native_bayes.BernoulliNB |