《机器学习公式推导与代码实现》chapter21-贝叶斯概率模型

《机器学习公式推导与代码实现》学习笔记,记录一下自己的学习过程,详细的内容请大家购买作者的书籍查阅。

贝叶斯概率模型

1 贝叶斯定理简介

贝叶斯定理认为任意未知量 θ \theta θ都可以看做一个随机变量,对该未知量的描述可以用一个概率分布 π ( θ ) \pi \left(\theta \right) π(θ)来概况,这是贝叶斯学派最基本的观点。当这个概率分布在进行现场试验或抽样前已经确定时,便可将该分布成为先验概率分布,再结合由给定数据集 X X X计算样本的似然函数$L\left ( \theta \mid X \right ) $后,即可应用贝叶斯公式计算该未知量的后验概率分布。经典的贝叶斯公式如下:
π ( θ ∣ X ) = L ( θ ∣ X ) π ( θ ) ∫ L ( θ ∣ X ) π ( θ ) d θ \pi \left(\theta \mid X\right) = \frac{L\left ( \theta \mid X \right )\pi\left(\theta\right)}{\int L\left ( \theta \mid X \right )\pi\left(\theta\right)d\theta} π(θX)=L(θX)π(θ)dθL(θX)π(θ)
其中 π ( θ ∣ X ) \pi \left(\theta \mid X\right) π(θX)为后验概率, ∫ L ( θ ∣ X ) π ( θ ) d θ \int L\left ( \theta \mid X \right )\pi\left(\theta\right)d\theta L(θX)π(θ)dθ为边缘分布,其排除了任何有关未知量 θ \theta θ的信息,因此贝叶斯公式的等价形式可以写作:
π ( θ ∣ X ) ∝ L ( θ ∣ X ) π ( θ ) \pi \left(\theta \mid X\right) \propto L\left ( \theta \mid X \right )\pi\left(\theta\right) π(θX)L(θX)π(θ)
贝叶斯公式的本质就是基于先验概率分布 π ( θ ) \pi\left(\theta\right) π(θ)和似然函数 L ( θ ∣ X ) L\left ( \theta \mid X \right ) L(θX)的统计推断,其中先验概率分布 π ( θ ) \pi\left(\theta\right) π(θ)的选择和后验分布 π ( θ ∣ X ) \pi \left(\theta \mid X\right) π(θX)的推断是贝叶斯领域的两个核心问题。

朴素贝叶斯是一种基于贝叶斯定理的概率分类模型,而贝叶斯网络是一种将贝叶斯定理应用于概率图中的分类模型,二者都是生成式学习方法。

之所以取名朴素贝叶斯是因为特征的条件独立性假设能够大大简化算法的学习和预测过程,但也会造成一定的精度损失。

进一步的,将朴素贝叶斯的条件独立性假设去掉,认为特征之间存在相关性的贝叶斯模型就是贝叶斯网络模型,贝叶斯网络模型是一种概率有向图模型。

2 朴素贝叶斯

在这里插入图片描述
在这里插入图片描述

2.1 基于numpy的朴素贝叶斯实现
import numpy as np

# 朴素贝叶斯模型训练与预测
class NaiveBayes:

    def fit(self, X, y):
        
        self.classes = y[y.columns[0]].unique() # 标签类别
        self.class_count = y[y.columns[0]].value_counts() # 类先验概率分布
        self.class_prior = self.class_count / len(y) # 极大似然估计:类先验概率
        self.prior_condition_prob = dict() # 类条件概率字典初始化

        # 遍历计算类条件概率
        for col in X.columns: # 遍历特征
            for j in self.classes: # 遍历类别
                p_x_y = X[(y==j).values][col].value_counts() # 统计当前类别下特征的不同取值
                for i in p_x_y.index: # 遍历计算类条件概率
                    self.prior_condition_prob[(col, i, j)] = p_x_y[i] / self.class_count[j]
        
        return self.classes, self.class_prior, self.prior_condition_prob # 标签类别,类先验概率分布,类条件概率分布

    def predict(self, X_test):

        res = [] # 初始化结果列表
        for c in self.classes: # 遍历样本类别
            p_y = self.class_prior[c] # 获取当前类的先验概率
            p_x_y = 1 # 初始化类条件概率
            for i in X_test.items(): # 似然函数:类条件概率连乘
                p_x_y *= self.prior_condition_prob[tuple(list(i)+[c])]
            res.append(p_y * p_x_y) # 类先验概率与类条件概率乘积
        print(res)
        return self.classes[np.argmax(res)] # 结果转化为预测类别

构造数据集

import pandas as pd

# 构造数据集: 来自于李航统计学习方法表4.1
x1 = [1,1,1,1,1,2,2,2,2,2,3,3,3,3,3] # 特征x1
x2 = ['S','M','M','S','S','S','M','M','L','L','L','M','M','L','L'] # 特征x2
y = [-1,-1,1,1,-1,-1,-1,1,1,1,1,1,1,1,-1] # 标签列表

df = pd.DataFrame({'x1':x1, 'x2':x2, 'y':y})
df.head()

在这里插入图片描述
测试结果

model = NaiveBayes()
X = df[['x1', 'x2']]
y = df[['y']]
classes, class_prior, prior_condition_prob = model.fit(X, y)
classes, class_prior, prior_condition_prob
(array([-1,  1], dtype=int64),
  1    0.6
 -1    0.4
 Name: y, dtype: float64,
 {('x1', 1, -1): 0.5,
  ('x1', 2, -1): 0.3333333333333333,
  ('x1', 3, -1): 0.16666666666666666,
  ('x1', 3, 1): 0.4444444444444444,
  ('x1', 2, 1): 0.3333333333333333,
  ('x1', 1, 1): 0.2222222222222222,
  ('x2', 'S', -1): 0.5,
  ('x2', 'M', -1): 0.3333333333333333,
  ('x2', 'L', -1): 0.16666666666666666,
  ('x2', 'M', 1): 0.4444444444444444,
  ('x2', 'L', 1): 0.4444444444444444,
  ('x2', 'S', 1): 0.1111111111111111})
X_test = {'x1': 2, 'x2': 'S'}
print('测试数据预测类别为:', model.predict(X_test))
[0.06666666666666667, 0.02222222222222222]
测试数据预测类别为: -1

2.2 基于sklearn的朴素贝叶斯实现

sklearn也提供了朴素贝叶斯的算法实现方式,涵盖不同似然函数分布的朴素贝叶斯算法实现方式,比如高斯朴素贝叶斯伯努利朴素贝叶斯多项式朴素贝叶斯等,我们以高斯朴素贝叶斯为例,高斯朴素贝叶斯即假设似然函数为正态分布的朴素贝叶斯模型,它的似然函数如下:
P ( x i ∣ y ) = 1 2 π σ y 2 e x p ( − ( x i − μ y ) 2 2 σ y 2 ) P\left(x_{i}\mid y\right)=\frac{1}{\sqrt{2\pi\sigma_{y}^{2}}}exp\left(-\frac{\left(x_{i}-\mu_{y}\right)^{2}}{2\sigma_{y}^{2}}\right) P(xiy)=2πσy2 1exp(2σy2(xiμy)2)
sklearn中高斯朴素贝叶斯的调用接口为sklearn.naive_bayes.GaussianNB,以iris数据集为例给出调用示例:

from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.naive_bayes import GaussianNB
from sklearn.metrics import accuracy_score
X, y = load_iris(return_X_y=True)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.5, random_state=0)
gnb = GaussianNB()
y_pred = gnb.fit(X_train, y_train).predict(X_test)
f"Accuracy of GaussianNB in iris data test: {accuracy_score(y_test, y_pred)}"
'Accuracy of GaussianNB in iris data test: 0.9466666666666667'

3 贝叶斯网络

3.1 贝叶斯网络的原理推导

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3.2 借助于pgmpy的贝叶斯网络实现

pgmpy是一款基于python的概率图模型包,主要包括贝叶斯网络和马尔可夫蒙特卡洛等常见概率图模型的实现以及推断方法。
我们以学生获得推荐信的质量为例来构造贝叶斯网络,相关特征的DAG和概率表如图所示:
在这里插入图片描述
首先指定各变量之间的关系:

from pgmpy.factors.discrete import TabularCPD
from pgmpy.models import BayesianModel

# 构建模型框架
letter_model = BayesianModel([
    ('D', 'G'),
    ('I', 'G'),
    ('G', 'L'),
    ('I', 'S')
])

构建各个结点的条件概率分布,需要指定相关参数和传入概率表:

# 学生成绩的条件概率分布
grade_cpd = TabularCPD(
    variable='G', # 结点名称
    variable_card=3, # 结点取值个数
    values=[[0.3, 0.05, 0.9, 0.5],
            [0.4, 0.25, 0.08, 0.3],
            [0.3, 0.7, 0.02, 0.2]],
    evidence=['I', 'D'], # 该结点的依赖结点
    evidence_card=[2, 2] # 依赖结点的取值个数
)

# 考试难度的条件概率分布
difficulty_cpd = TabularCPD(
    variable='D',
    variable_card=2,
    values = [[0.6], [0.4]]
)

# 个人天赋的条件概率分布
intel_cpd = TabularCPD(
    variable='I',
    variable_card=2,
    values=[[0.7], [0.3]]
) 

# 推荐信质量的概率分布
letter_cpd = TabularCPD(
    variable='L',
    variable_card=2,
    values = [[0.1, 0.4, 0.99],
              [0.9, 0.6, 0.01]],
    evidence=['G'],
    evidence_card=[3]
)

# sat考试分数的条件概率分布
sat_cpd = TabularCPD(
    variable='S',
    variable_card=2,
    values=[[0.95, 0.2],
            [0.05, 0.8]],
    evidence=['I'],
    evidence_card=[2]
)

构建贝叶斯网络模型

# 将各节点添加到模型中,构建贝叶斯网络
letter_model.add_cpds(
    grade_cpd,
    difficulty_cpd,
    intel_cpd,
    letter_cpd,
    sat_cpd
)

from pgmpy.inference import VariableElimination # 导入pgmpy贝叶斯推断模块
letter_infer = VariableElimination(letter_model) # 贝叶斯网络推断

# 天赋较好且考试不难情况下推断该学生获得推荐信的质量
prob_G = letter_infer.query(
    variables=['G'],
    evidence={'I':1, 'D':0}
)
print(prob_G) # 聪明学生遇到简单考试获得一等成绩的概率高达90%
+------+----------+
| G    |   phi(G) |
+======+==========+
| G(0) |   0.9000 |
+------+----------+
| G(1) |   0.0800 |
+------+----------+
| G(2) |   0.0200 |
+------+----------+

笔记本_Github地址

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Jiawen9

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值