机器学习第十四章-概率图模型

目录

14.1 隐马尔可夫模型

14.2马尔科夫随机场

14.3条件随机场

14.4学习与推断

14.4.1变量消去

14.4.2信念传播

14.5近似推断

14.5.1 MCMC采样

14.5.2 变分推断

14.6 话题模型


14.1 隐马尔可夫模型

       概率围棋型是一类用图来表达变量相关关系的概率模型.它以图为表示工具,最常见的是用一个结点表示一个或一组随机变量,结点之间的边表示变量间的概率相关关系,即"变量关系图”。

        隐马尔可夫模型是结构最筒单的动态贝叶斯网 ,这是一种著名的有向图模型,主要用于时序数据建模,在语音识别、自然语言处理等领域有广泛应用。
                        
        系统下一时刻的状态仅由当前状态决定,不依赖于以往的任何状态.基于这种依赖关系,所有变量的联合概率分布为:        
                P\left(x_{1}, y_{1}, \ldots, x_{n}, y_{n}\right)=P\left(y_{1}\right) P\left(x_{1} \mid y_{1}\right) \prod^{n} P\left(y_{i} \mid y_{i-1}\right) P\left(x_{i} \mid y_{i}\right)
欲确定一个隐马尔可夫模型还需以下三组参数:

1. 状态转移概率矩阵:
   记作 A = [a_{ij}],其中a_{ij} = P(Y_{t+1} = S_j \mid Y_t = S_i)
   表示从状态 S_i转移到状态S_j 的概率。矩阵的每个元素 a_{ij}描述了状态转移的可能性。

2. 观测概率矩阵:
   记作 B = [b_{ij}],其中b_{ij} = P(X_t = O_j \mid Y_t = S_i)
   描述在状态S_i 下观测到观测值 O_j的概率。每个元素b_{ij}指定了在某个隐状态下生成某个观测值的概率。

3. 初始状态概率向量:
   记作\pi = [\pi_i],其中 \pi_i = P(Y_1 = S_i)
   表示在初始时刻系统处于状态S_i的概率。这个向量定义了模型开始时各状态的分布。

        通过指定状态空间 、观测空间 和上述三组参数,就能确定一个隐马尔可夫模型,通常用其参数 λ= [A ,B,π ]来指代.给定隐马尔可夫模型 ,它按如下过程产生观测序列 {x1,x2,x3..... }:
        
(1) 设置 t =1  ,并根据初始状态概率π选择初始状态 y1 ;
(2) 根据状态yt和输出现测概率 B 选择观测变量取值 Xt;
(3) 根据状态yt和状态转移矩阵 A 转移模型状态,即确定 Yt +1;
(4) t < n 设置 t = t +1  ,并转到第 (2) 步,否则停止.

14.2马尔科夫随机场

        马尔可夫随机场(Markov Random Field ,简称 MRF)是典型的马尔可夫网, 这是一种著名的无向圈模型,圈中每个结点表示一个或一组变量,结点之间 的边表示两个变量之间的依赖关系。

                        

        对于n个变量 X={x1,x2....xn} 所有团构成的集合为C ,与团Q\epsilon C 对应的变量集合记为X_{q} 则联合概率 P(X) 定义为:
                ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        P(\mathbf{x})=\frac{1}{Z} \prod_{Q \in \mathcal{C}} \psi_{Q}\left(\mathbf{x}_{Q}\right)
        基于分离集的概念,得到了MRF的三个性质:
  1. 全局马尔可夫性:给定两个变量子集的分离集,则这两个变量子集条件独立。
  2. 局部马尔可夫性:给定某变量的邻接变量,则该变量与其它变量条件独立。
  3. 成对马尔可夫性:给定所有其他变量,两个非邻接变量条件独立。

        ​​​​​​​        

14.3条件随机场

        条件随机场(Conditional Random Field ,简称 CRF) 是一种判别式无向图模型。条件随机场试图对多个变量在给定观测值后 的条件概率进行建模.

        其中最常用到的是 "链式条件随机场":
                                

14.4学习与推断

14.4.1变量消去

        变量消去法是最直观的精确推断算法,以下的有向图模型为例来介绍其工作流程:

        变量捎去法把多个变量的积的求和问题,转化为对部分变量交替进行求积与求和的问题.变量消去法有一个明显的缺点:若需计算多个边际分布,重复使用变量消去法将会造成大量的冗余计算.
下面是关于变量消去法的实验代码及分析于结果:
        
import numpy as np

# 定义增广矩阵
A = np.array([[2, -1, 1, 4],
              [1,  2,  1, 5],
              [3, -2,  2, 8]], dtype=float)

def elimination(A):
    n = len(A)
    for i in range(n):
        # 主元归一化
        A[i] = A[i] / A[i, i]
        # 消去当前列的其他元素
        for j in range(i + 1, n):
            factor = A[j, i]
            A[j] = A[j] - factor * A[i]
    return A

def back_substitution(A):
    n = len(A)
    x = np.zeros(n)
    for i in range(n-1, -1, -1):
        x[i] = A[i, -1]
        for j in range(i+1, n):
            x[i] -= A[i, j] * x[j]
    return x

# 执行变量消去法
A_eliminated = elimination(A.copy())
solution = back_substitution(A_eliminated)

print("经过消去后的增广矩阵:")
print(A_eliminated)
print("\n方程组的解:")
print(solution)

分析:

  1. 增广矩阵处理:代码首先定义了一个增广矩阵 A,其最后一列为常数项。elimination 函数对增广矩阵进行消元操作,逐步将其转化为上三角形式。
  2. 消元过程:在 elimination 函数中,首先对每一行进行主元归一化,然后对每一列的其他元素进行消去,从而简化矩阵。
  3. 回代过程back_substitution 函数从上三角矩阵的最后一行开始,逐步计算未知数的值,得到方程组的解。

结果:

14.4.2信念传播

        信念传播算法将变量消去法中的求和操作看作一个消息传递过程,具体来说,变量消去法通过求和操作:

                        m_{i j}\left(x_{j}\right)=\sum_{x_{i}} \psi\left(x_{i}, x_{j}\right) \prod_{k \in n(i) \backslash j} m_{k i}\left(x_{i}\right)

下面是关于信念传播算法的实验代码及分析于结果:

        下面实验是关于一个简单的二值马尔可夫随机场(MRF)模型上的信念传播。将使用一个4x4的网格模型,其中每个节点代表一个二值变量。

import numpy as np

def initialize_messages(n):
    return np.zeros((n, n, 2, 2))  # Message array for 4 neighbors: Up, Down, Left, Right

def belief_propagation(grid, max_iters=10):
    n = len(grid)
    messages = initialize_messages(n)
    
    # Helper functions
    def compute_message(node, direction, messages):
        # Compute the message from the node to the neighbor in the specified direction
        pass
    
    def update_beliefs(grid, messages):
        # Update the belief of each node based on incoming messages
        beliefs = np.zeros((n, n, 2))
        for i in range(n):
            for j in range(n):
                # Update beliefs based on messages from neighbors
                beliefs[i, j] = grid[i, j]  # Placeholder for actual belief calculation
        return beliefs

    for _ in range(max_iters):
        for i in range(n):
            for j in range(n):
                # Compute messages in all directions
                for direction in ['Up', 'Down', 'Left', 'Right']:
                    messages[i, j] = compute_message((i, j), direction, messages)
        
        # Update beliefs
        beliefs = update_beliefs(grid, messages)
    
    return beliefs

# Define a grid with initial values (prior probabilities)
grid = np.random.rand(4, 4, 2)  # Random initial values for simplicity

# Normalize grid values to sum to 1
grid /= grid.sum(axis=2, keepdims=True)

# Run belief propagation
beliefs = belief_propagation(grid)

print("最终的信念分布:")
print(beliefs)
分析:
  1. 初始化消息和信念initialize_messages 函数初始化了用于消息传递的数组,belief_propagation 函数则开始信念传播过程。初始信念是随机的,并且需要归一化以确保每个节点的信念总和为1。

  2. 消息计算compute_message 是一个占位函数,实际实现会计算从一个节点向邻居节点传递的消息。在实际应用中,这个函数需要根据具体的模型和边缘条件进行实现。

  3. 信念更新update_beliefs 函数根据传入的消息更新每个节点的信念。在这个示例中,信念更新的实现被简化为直接使用初始值。实际中,这个步骤需要结合消息传递结果进行信念计算。

  4. 迭代过程:信念传播算法通过迭代来更新消息和信念。在每次迭代中,节点之间的消息会被计算并更新,最终收敛到一个稳定的信念分布。

结果:

14.5近似推断

14.5.1 MCMC采样

        概率图模型中最常用的采样技术是马尔可夫链蒙特卡罗(简称 MCMC) 方法.给定连续变量x\epsilon X 的概率密度函数 p(x) ,x在区间A中的概率可计算为:

                                                                P(A)=\int_{A} p(x) d x

下面是MCMC算法流程:

下面是关于MCMC算法的实验代码及分析于结果:

import numpy as np
import matplotlib.pyplot as plt

# 目标分布(标准正态分布)
def target_distribution(x):
    return np.exp(-0.5 * x**2) / np.sqrt(2 * np.pi)

# 提议分布(正态分布)
def proposal_distribution(x, sigma):
    return np.random.normal(x, sigma)

# Metropolis-Hastings 算法
def metropolis_hastings(num_samples, proposal_std):
    samples = np.zeros(num_samples)
    x = 0  # 初始值
    for i in range(num_samples):
        x_new = proposal_distribution(x, proposal_std)
        acceptance_ratio = target_distribution(x_new) / target_distribution(x)
        if np.random.rand() < acceptance_ratio:
            x = x_new
        samples[i] = x
    return samples

# 参数设置
num_samples = 10000
proposal_std = 1.0

# 生成样本
samples = metropolis_hastings(num_samples, proposal_std)

# 绘制结果
plt.figure(figsize=(12, 6))

# 绘制样本直方图
plt.subplot(1, 2, 1)
plt.hist(samples, bins=30, density=True, alpha=0.6, color='g')
plt.title('样本直方图')

# 绘制目标分布
x = np.linspace(-4, 4, 100)
plt.subplot(1, 2, 2)
plt.plot(x, target_distribution(x), 'r', lw=2)
plt.title('目标分布')

plt.show()

分析:

  1. 目标分布target_distribution 函数定义了我们想要采样的目标分布,这里选择的是标准正态分布。

  2. 提议分布proposal_distribution 函数定义了提议分布,这里使用的是以当前样本为均值的正态分布。

  3. Metropolis-Hastings 算法metropolis_hastings 函数实现了 Metropolis-Hastings 算法。算法首先生成一个提议样本,然后根据接受概率决定是否接受该样本。最终生成的样本数组用于估计目标分布。

  4. 结果可视化

    • 样本直方图:左侧图显示了生成的样本的直方图。应该接近目标分布的形状。
    • 目标分布:右侧图显示了目标分布的理论曲线。通过对比样本直方图和目标分布,可以验证 MCMC 算法的效果。

结果:

14.5.2 变分推断

        变分推断通过使用己知简单分布来逼近需推断的复杂分布,并通过限制近似分布的类型,从而得到 种局部最优、但具有确定解的近似后验分布.概率图模型一种简洁的表示方法一一盘式记法:

                        

14.6 话题模型

        话题模型(topic model) 是一族生成式有向图模型,主要用于处理离散型的数据(如文本集合) ,在信息检索、自然语言处理等领域有广泛应用.隐狄利克雷分配模型(简称 LDA) 是话题模型的典型代表.在话题模型中,有以下几个基本概念:词(word)、文档(document)、话题(topic)。 

  • 18
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值