概率图模型 Probabilistic Graphical Model(PGM)

什么是概率图模型

机器学习的方法很多时候是在计算联合分布,之后在联合分布上做一系列的推理。一般的联合分布定义较为复杂,如有n个随机变量的分布X

P(\vec{X}) = P(x_1) \prod{P(x_i|x_{i-1},x_{i-2},...,x_1)}

对于该分布通常十分复杂,参数量巨大,即便是在最简单的二值分布下也有2^n-1个参数。参数量巨大通常意味着模型复杂,难以学习。但是真实的问题中可能我们的\vec{X}中有很多变量是相互独立的。而这些独立/条件独立的关系能够极大地化简模型。

概率图模型是用图论方法以表现数个独立随机变量之关系的一种建模法。其图中的任一节点为随机变量,若两节点间无边相接则意味此二变量彼此条件独立。两种常见的概率图模型是具有向性边的图及具无向性边的图。根据图的有向性,概率图模型可以分成两大类,分别是贝叶斯网络和马尔可夫网络。这两类网络均具有因子化和条件独立的性质,但条件独立的类型和将分布因子化的方式有所不同。

有向图和无向图分别能够表达不同的随机变量独立性。下图以贝叶斯网和马尔科夫网为例给出他们之间的关系,以便有个总体的认识,其中{P}代表全部的概率分布集合,{P_B}为贝叶斯网络能够表示的概率分布,{P_M}为马尔科夫网能够表示的概率分布。

图1

有向图模型(贝叶斯网)

定义:贝叶斯网络\cal B是定义在( \cal {G},\bf \left \{ P_{x_1},P_{x_2},...,P_{x_n} \right \}}),其中\cal G = \bf (X,E)是一个有向无环图(DAG),P_{x_1},P_{x_2},...,P_{x_n}为条件概率,P_{x_i} = P(X_i|Pa_{\cal G}(X_i))。那么

贝叶斯网联合分布:P_{\cal B}=\prod_{i=1}^{N} P_{x_i}(X_i|Pa_{\cal G}(X_i))

其中Pa_{\cal G}(X_i)表示X_i的父节点

下图是一个贝叶斯网络的示意图。参数化网络时节点上定义的是给定父节点的条件概率(CPD),与联合概率分布中的相对应.

图2

在《概率图模型:原理与技术》中提到了I-map的概念。其实是说如果\cal G中表示的独立性断言是总体分布独立性断言的子集,那么\cal G是P的一个I-map(independence map)。这个I-map与贝叶斯网的因子分解又有对应关系。

独立性断言

贝叶斯网中,两个节点的连结只有直接连结和间接连结两种,比较好理解。但是贝叶斯网中有三种基本的链接方式, 分别代表三种独立性的独立性断言,分别是:间接因果作用(间接证据作用),共同原因,共同作用。这三种基本的断言方式,个人认为是十分有必要介绍的,因为直接决定了有向图模型与无向图模型的表达能力区别,分别如下:

图3

串连,间接因果(证据)作用,因果迹

图4

分连,共同原因

图5

汇连,共同作用

X_i,X_j的独立性与X_k的独立性在三种连结方式下有以下关系:

串连:观察到X_kX_i,X_j条件独立

分连:观察到X_kX_i,X_j条件独立

汇连:当未观察到X_k及其后代节点时X_i,X_j条件独立,这个结构也叫做v-结构(v-structure).

以上三种独立性依照概率知识很容易就可以证明,汇连关系给出的随机变量独立性有些迷惑性,需要思考一下。

串联:P(X_i,X_j|X_k) = \frac {P(X_i,X_j,X_k)}{P(X_k)} =\frac{P(X_i)P(X_k|X_i)P(X_j|X_k)}{P(X_k)} =P(X_i|X_k)P(X_j|X_k)

分连:P(X_i,X_j|X_k) = \frac {P(X_i,X_j,X_k)}{P(X_k)} =\frac{P(X_i|X_k)P(X_j|X_k)P(X_k)}{P(X_k)} =P(X_i|X_k)P(X_j|X_k)

关于汇连,当给定观测值X_k时:

P(X_i,X_j|X_k) = \frac {P(X_i,X_j,X_k)}{P(X_k)} =\frac{P(X_i)P(X_j)P(X_k|X_i,X_j)}{P(X_k)} \neq P(X_i|X_k)P(X_j|X_k)

当不给定X_k时:

P(X_i,X_j) = \int P(X_i,X_j,X_k)dX_k =\int P(X_i)P(X_j)P(X_k|X_i,X_j)dX_k = P(X_i)P(X_j) \int P(X_k|X_i,X_j)dX_k = P(X_i)P(X_j)

第二个等号使用了贝叶斯网定义中的联合分布表示。

那么对于同一个概率分布,贝叶斯网的结构是不是唯一的呢?

然而并不是的,例如图3,图4都表达了X_i\perp X_j|X_k,都可以描述同一个概率分布,但是两图并不同.当两个图具有相同的"骨架"并且具有相同的v-结构时,两者是等价的.

无向图模型(马尔科夫网):

马尔科夫网络定义在\left ( \cal {G} \left \{ \bf{\Psi_{C_1},...,\Psi_{C_L} } \right \} \right )上,\cal G是一个无向图,并且有最大团C_1,C_2,...,C_L,\Psi_{C_i} = f(C_i) \rightarrow \mathbb{R}_+称之为势函数。相应的马尔科夫网联合概率表示为:

P_M = \frac{1}{Z} \prod_{L}^{l=1} \Psi_{C_i}(C_i),Z= \sum \prod_{L}^{l=1} \Psi_{C_i}(C_i)

无向图模型表达的被连结的节点(随机变量)之间的影响是相互的,所以条件概率不再适用于无向图模型.马尔科夫网络中通过定义一系列的函数用来评价变量之间相互影响的紧密关系,称之为势函数或者因子,便是定义中的\Psi,值得注意的是这个\Psi其实是不能直接理解成概率的,也没有要归一化的限制.下图是一个无向图模型的例子:

对应该联合分布P_{\cal {M}} (X_1,X_2,...,X_5) = \frac{1}{Z} \Psi_{C_1}(X_1,X_2,X_3)\Psi_{C_2}(X_3,X_4)\Psi_{C_3}(X_3,X_5).

对于马尔科夫网络的变量之间的独立性直接与两个变量是否在图上被分离相对应.

马尔科夫网中的独立性有三种,分别是:局部独立性,全局独立性,成对独立性.

局部独立性,给定X的相邻节点,那么X与其他节点独立

成对独立性是这样,如果两个变量没有直接相连,那么必定存在某种方式使之独立,即\left \{ (X\perp Y| \mathcal{G} - \left \{ X,Y \right \}): X-Y \nsubseteq \mathcal{G} \right \}

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值