序
为了不学迷糊,条件随机场这儿应该理一理它与其他概率图模型的关系和区别。上一文讲的隐马尔可夫模型(HMM)是经典的有向图模型,同时也是一个生成模型,通过对
P
(
Y
,
X
)
P(Y,X)
P(Y,X)建模得到。HMM有两个重要假设,通过上文的推导过程也能体会到,这两个假设大大简化了计算过程。但是实际应用中,这两个假设往往不是很合理,后面出现了 最大熵马尔可夫模型(MEMM),它消除观测独立的假设,本文要讲的条件随机场则消除了齐次马尔可夫性。
先来回顾下HMM,它的模型如下图所示,在HMM中
0
2
0_2
02只依赖于
i
2
i_2
i2,而
i
2
i_2
i2只依赖于
i
1
i_1
i1,在HMM的预测(标注)问题中,虽然维特比算法依据整个观测序列概率最大来计算的状态序列,但在计算中实际使用的仍是前向后向概率,它们都是由观测独立与齐次马尔可夫假设条件下简化过的。因此,可以认为并未考虑观测之间的影响因素。
HMM作为有向图模型,箭头走向是从隐状态到观测值,根据这种关系,在求解隐变量时需根据箭头走向建立求解观测变量的概率模型,并且不能忽略过程中隐变量的作用,于是先建立
P
(
Y
,
X
)
P(Y,X)
P(Y,X)的概率模型,由于依赖之前的状态,根据概率乘法运算得到观测序列下隐状态的条件概率,同时,为了简化运算对独立性作假设,这便是生成模型的求解思路。
而条件随机场属于概率无向图,概率无向图又称马尔可夫网络,它使用节点表示随机变量,节点间的连线表示节点之间直接的相互影响关系。它与无向图的主要作用都是将复杂的联合概率分解为多个乘积,不过有向图认为概率只依赖于前面的一个状态,若前面的状态确定,则后面的概率也就确定,因此很方便的用条件概率与概率乘法将联合分布表示出来。而马尔可夫网络则认为与之相邻的变量都有互相作用,将整个概率图以极大子团为单位分开表示,极大子团的概率能量则用势函数表示,这也决定了该图概率需要归一化。
1. 概率无向图
上图是一个马尔可夫无向图,其中每个节点表示一个随机变量,连接它们的边表示它们之间有相互影响的关系。马尔可夫图也有关于概率独立性的假设,不过不是像有向图那样仅仅依赖箭头之前的变量。马尔可夫图假设随机变量之间存在成对马尔可夫性、局部马尔可夫性和全局马尔可夫性。虽说定义了三类,但实际上三类定义都是等价的,它们都表明,没有边使两节点或这极大团相连的话,那么这两个节点或极大团便是独立的。就像上图一样,w将 v 和 o 分开,若w给定,那么v 和o 两个代表的随机变量是独立的。假设以
Y
v
Y_v
Yv表示v 节点表示的随机变量,
P
(
Y
v
,
Y
o
∣
Y
w
)
=
P
(
Y
v
∣
Y
w
)
P
(
Y
o
∣
Y
w
)
P(Y_v,Y_o|Y_w) = P(Y_v|Y_w)P(Y_o|Y_w)
P(Yv,Yo∣Yw)=P(Yv∣Yw)P(Yo∣Yw) 在
P
(
Y
o
∣
Y
w
)
>
0
P(Y_o|Y_w)>0
P(Yo∣Yw)>0的情况下,该独立性可表述如下
P
(
Y
v
∣
Y
w
)
=
P
(
Y
v
∣
Y
w
,
Y
o
)
P(Y_v|Y_w) = P(Y_v|Y_w,Y_o)
P(Yv∣Yw)=P(Yv∣Yw,Yo) 有无
Y
o
Y_o
Yo对
Y
v
Y_v
Yv的概率都无影响,这是局部马尔可夫性,将v ,o, w 可以是节点或极大团,便组成了三个马尔可夫性。下面给出概率无向图的完整定义。
定义:设有联合概率分布
P
(
Y
)
P(Y)
P(Y),由无向图
G
=
(
V
,
E
)
G= (V,E)
G=(V,E)表示,在图G中,节点表示随机变量,边表示随机变量之间的依赖关系。如果联合概率分布满足成对、局部或全局马尔可夫性,就称此联合概率分布为概率无向图,或马尔可夫随机场。
- 概率无向图的因子分解
同有向图,概率图模型的一大优点便是易于分解,简化概率的计算。有向图可以按照对上一节点的依赖,将联合概率逐步分解为条件概率的乘积。无向图中的随机变量与其相连的节点都会相互影响,所以用极大团来分解无向图也成为很自然的事。
团与极大团:无向图中,任何两个节点均有边相连的节点子集称为一个团。如果在这个团中,再添加该图中的任意一个节点,都会破坏团的定义,那么该团是极大团。
该图有5个团,2个极大团,极大团是
{
A
,
B
,
C
}
,
{
A
,
D
}
\{A,B,C\},\{A,D\}
{A,B,C},{A,D},那么该无向图的概率可拆解为两个极大团概率的乘积。如何表示每个极大团的概率呢?在马尔可夫网中使用势函数来完成这一目的,不用太纠结势函数是什么,这是引用了理论物理里的概念。只需要知道马尔可夫网中使用势函数定义一些特征函数来联系极大团之间的变量的相互影响,以此产生一个该团的非规范化概率,然后再将所有极大团的概率相加作为规范化因子,最终产生一个规范化概率。
设无向图为G,C为G上的极大团,
Y
c
Y_c
Yc表示C对应的随机变量,那么该概率无向图的联合概率
P
(
Y
)
P(Y)
P(Y)可写作图中所有极大团C上的势函数
Ψ
c
(
Y
c
)
\Psi_c(Y_c)
Ψc(Yc)的乘积形式,即
P
(
Y
)
=
1
Z
∏
c
Ψ
c
(
Y
c
)
P(Y) = \frac 1 Z \prod_c \Psi_c(Y_c)
P(Y)=Z1c∏Ψc(Yc)其中,Z是规范化因子
Z
=
∑
Y
∏
c
Ψ
c
(
Y
c
)
Z = \sum_Y \prod_c \Psi_c(Y_c)
Z=Y∑c∏Ψc(Yc)其中,势函数要求严格正,因此常定义为指数函数
Ψ
c
(
Y
c
)
=
e
x
p
(
−
E
(
Y
c
)
)
\Psi_c(Y_c) = exp(-E(Y_c))
Ψc(Yc)=exp(−E(Yc)) 于是,概率无向图的计算是以势函数为单位的,前面讲过的HMM是以概率为单位,所以它不需要归一化,而无向图的计算需要归一化。目前我们明白了在概率无向图中的分解以极大团为单位,并且使用势函数来计算其非规范化概率,那么一个极大团中有多个随机变量节点,如何分配这些和计算其概率贡献是接下来的问题。
2. 条件随机场
- 定义
条件随机场:设X与Y是随机变量,
P
(
Y
∣
X
)
P(Y|X)
P(Y∣X)是在给定X的条件下Y的条件概率分布。若随机变量Y构成一个由无向图
G
=
(
V
,
E
)
G=(V,E)
G=(V,E)表示的马尔可夫随机场,即
P
(
Y
v
∣
X
,
Y
w
,
w
≠
v
)
=
P
(
Y
v
∣
X
,
Y
w
,
w
∼
v
)
P(Y_v|X,Y_w,w \neq v)=P(Y_v|X,Y_w,w\sim v )
P(Yv∣X,Yw,w̸=v)=P(Yv∣X,Yw,w∼v)对任意节点v成立,则称
P
(
Y
∣
X
)
P(Y|X)
P(Y∣X)为条件随机场。式中
w
≠
v
w \neq v
w̸=v表示节点v 以外的所有节点,
w
∼
v
w \sim v
w∼v表示在 G中与v 节点有边连接的所有 节点 w。
定义中两个节点集合表示的含义是,只要给定了与v 相连接的节点 w ,那么v 节点代表的随机变量便与其他节点相独立,式中
w
∼
v
w \sim v
w∼v表示的便是包括了 w 在内的其他节点,但只要给定 与 v相连的w,再加其他的节点也不会影响概率,因为v 节点与它们独立。
统计学习方法中只讨论了图结构为线性链的情况,这一特殊情况应该较通用的无向图定义要简单一些,线性链中节点数量n和边的数量e满足 e = n - 1 。并且在CRF中常常假设X和Y具有相同的图结构,那么可以得到线性链条件随机场的结构如下
线性链条件随机场:设
X
=
(
X
1
,
X
2
,
⋯
 
,
X
n
)
,
Y
=
(
Y
1
,
Y
2
,
⋯
 
,
Y
n
)
X = (X_1,X_2,\cdots,X_n),Y= (Y_1,Y_2,\cdots,Y_n)
X=(X1,X2,⋯,Xn),Y=(Y1,Y2,⋯,Yn)均为线性链表示的随机变量序列,若再给定随机变量序列X的条件下,随机变量序列Y的条件概率分布
P
(
Y
∣
X
)
P(Y|X)
P(Y∣X)构成条件随机场,即满足马尔可夫性
P
(
Y
i
∣
X
,
Y
1
,
⋯
 
,
Y
i
−
1
,
Y
i
+
1
,
⋯
 
,
Y
n
)
=
P
(
Y
i
∣
Y
i
−
1
,
Y
i
+
1
)
i
=
1
,
⋯
 
,
n
,
(
在
i
=
1
和
n
时
只
考
虑
单
边
)
P(Y_i|X,Y_1,\cdots,Y_{i-1},Y_{i+1},\cdots,Y_n) = P(Y_i|Y_{i-1} ,Y_{i+1})\\ i = 1,\cdots,n,(在i = 1和n时只考虑单边)
P(Yi∣X,Y1,⋯,Yi−1,Yi+1,⋯,Yn)=P(Yi∣Yi−1,Yi+1)i=1,⋯,n,(在i=1和n时只考虑单边)则称
P
(
Y
∣
X
)
P(Y|X)
P(Y∣X)为线性链条件随机场,即线性链与之相邻的只有左右两边(两端只有一边)。
下面讨论的都是线性链条件随机场,给出其定义后,现在考虑需要解决的问题,即如何分配和计算某个团中各个节点的概率。关于这个问题首先需要明白条件随机场是用来干嘛的——标注问题,其中的一个典型问题就是单词词性标注。对于一个单词序列,其前后词性的关系是比较密切的,这里词性就是标注序列Y,单词是观测序列X。那么为了得到单词序列的词性标注序列,首先我们可以从单词序列X获得一些信息,比如
When the whole world is about to rain, let’s make it clear in our heart together.
其中第三个单词 whole 有n. 整体 和 adj. 完整的 两个词性,那么当我们读取这个单词序列X的时候,我们可能就能从X中获取这两个词性可能较大。接下来需要进一步判断它到底是名词还是形容词,这时我们想到可以利用邻近的单词进行推断。它的前面是一个定冠词 the ,而定冠词后面常常接名词,因此这一步增大了 whole 判断为名词的概率。但是我们再看其后面,world 是一个名词,而名词前接形容词的概率较大。这又增大了 whole为形容词的概率,如果我们根据英语语法知识设定的规则比较恰当,那么给这两个判断依据设定的权重应该是能够正确区分 whole的正确词性的。这一过程其实已基本描述了条件随机场势函数定义的思想——为关联的变量设定特征函数。
下面给出由特征函数将条件随机场参数化的具体形式。
- 条件随机场的参数化形式
设
P
(
Y
∣
X
)
P(Y|X)
P(Y∣X)为线性链条件随机场,则在随机变量X取值为x的条件下,随机变量Y取值为y的条件概率具有如下形式:
P
(
y
∣
x
)
=
1
Z
(
x
)
e
x
p
(
∑
i
,
k
λ
k
t
k
(
y
i
−
1
,
y
i
,
x
,
i
)
+
∑
i
,
l
μ
l
s
l
(
y
i
,
x
,
i
)
)
P(y|x)= \frac 1 {Z(x)} exp \left ( \sum_{i,k} \lambda_k t_k(y_{i-1},y_i,x,i) +\sum_{i,l}\mu_l s_l (y_i,x,i) \right )
P(y∣x)=Z(x)1exp⎝⎛i,k∑λktk(yi−1,yi,x,i)+i,l∑μlsl(yi,x,i)⎠⎞其中,
Z
(
x
)
=
∑
y
e
x
p
(
∑
i
,
k
λ
k
t
k
(
y
i
−
1
,
y
i
,
x
,
i
)
+
∑
i
,
l
μ
l
s
l
(
y
i
,
x
,
i
)
)
Z(x) = \sum_y exp \left ( \sum_{i,k} \lambda_k t_k(y_{i-1},y_i,x,i) +\sum_{i,l}\mu_l s_l (y_i,x,i) \right )
Z(x)=y∑exp⎝⎛i,k∑λktk(yi−1,yi,x,i)+i,l∑μlsl(yi,x,i)⎠⎞式中,
t
k
,
s
l
t_k,s_l
tk,sl是特征函数,
λ
k
和
μ
l
\lambda_k和\mu_l
λk和μl是对应的权值,Z(x) 是规范化因子。
上式是特征函数确定的线性链条件随机场的基本形式,其中,
t
k
t_k
tk是定义在边上的特征函数,用以表示转移特征,依赖于当前和前一个位置,即边相连的两个状态变量。
s
l
s_l
sl是定义在节点上的特征函数,用以表示状态特征,依赖于当前位置。结合上面的例子,
s
l
s_l
sl便是从单词序列X中得到特征的函数,它可以提取对于当前观测序列,有哪些可能的状态对应。而
t
k
t_k
tk便是联系状态之间依赖的特征函数,即上例中确定前后文的词性,在根据词性关系进一步确定其最有可能的词性。注意
t
k
t_k
tk定义在边上,那么每移动一步都会计算相邻两个变量之间的依赖关系。
由此可以看出,条件随机场完全由两个特征函数和其对应的权值确定。线性链条件随机场也是一个对数线性模型。
- 条件随机场的简化形式(内积)
上面参数化形式中,指数函数内部全部是特征函数的权值与特征函数的乘积再求和的形式,很显然,可以将其表达为权值与特征函数的内积。
注意每个权值是对应与其特征函数的,先以特征函数为序合并两个特征函数,我们用K = K1 + K2 来同一表示这两个特征的数量,其中K1是转移特征,K2是状态特征
f
k
(
y
i
−
1
,
y
i
,
x
,
i
)
=
{
t
k
(
y
i
−
1
,
y
i
,
x
,
i
)
,
k
=
1
,
2
,
⋯
 
,
K
1
s
l
(
y
i
,
x
,
i
)
,
k
=
K
1
+
l
;
l
=
1
,
2
,
⋯
 
,
K
2
f_k(y_{i-1},y_i,x,i) = \left\{\begin{aligned} &t_k(y_{i-1},y_i,x,i),&k=1,2,\cdots,K_1\\ &s_l(y_i,x,i),&k = K_1+l; l=1,2,\cdots,K_2 \end{aligned}\right.
fk(yi−1,yi,x,i)={tk(yi−1,yi,x,i),sl(yi,x,i),k=1,2,⋯,K1k=K1+l;l=1,2,⋯,K2其中,每个特征函数可作用于多个节点之间,因此要对每个特征函数在各个位置i上求和
f
k
(
y
,
x
)
=
∑
i
=
1
n
f
k
(
y
i
−
1
,
y
i
,
x
,
i
)
,
k
=
1
,
2
,
⋯
 
,
K
f_k(y,x) =\sum_{i=1} ^nf_k(y_{i-1},y_i,x,i) , k = 1,2,\cdots,K
fk(y,x)=i=1∑nfk(yi−1,yi,x,i),k=1,2,⋯,K同样,其权值也以特征函数为序组合,
w
k
=
{
λ
k
,
k
=
1
,
2
,
⋯
 
,
K
1
μ
k
,
k
=
K
1
+
l
;
l
=
1
,
2
,
⋯
 
,
K
2
w_k = \left\{\begin{aligned} &\lambda_k,&k=1,2,\cdots,K_1\\ &\mu_k ,&k = K_1+l; l=1,2,\cdots,K_2 \end{aligned}\right.
wk={λk,μk,k=1,2,⋯,K1k=K1+l;l=1,2,⋯,K2于是,条件随机场可表示为
P
(
y
∣
x
)
=
1
Z
(
x
)
e
x
p
∑
k
=
1
K
w
k
f
k
(
y
,
x
)
Z
(
x
)
=
∑
y
e
x
p
∑
k
=
1
K
w
k
f
k
(
y
,
x
)
P(y|x) = \frac 1 {Z(x)} exp\sum_{k=1}^Kw_kf_k(y,x)\\ Z(x) = \sum_y exp \sum_{k=1}^Kw_kf_k(y,x)
P(y∣x)=Z(x)1expk=1∑Kwkfk(y,x)Z(x)=y∑expk=1∑Kwkfk(y,x) 下面将其表示为向量形式,以 w 表示权值向量,
w
=
(
w
1
,
w
2
,
⋯
 
,
w
K
)
T
w = (w_1,w_2,\cdots,w_K)^T
w=(w1,w2,⋯,wK)T以
F
(
y
,
x
)
F(y,x)
F(y,x)表示特征函数向量,
F
(
y
,
x
)
=
(
f
1
(
y
,
x
)
,
f
2
(
y
,
x
)
,
⋯
 
,
f
K
(
y
,
x
)
)
T
F(y,x) = (f_1(y,x),f_2(y,x) ,\cdots,f_K(y,x))^T
F(y,x)=(f1(y,x),f2(y,x),⋯,fK(y,x))T于是条件随机场可写为内积形式:
P
w
(
y
∣
x
)
=
e
x
p
(
w
⋅
F
(
y
,
x
)
)
Z
w
(
x
)
P_w(y|x) = \frac {exp(w\cdot F(y,x))} {Z_w(x)}
Pw(y∣x)=Zw(x)exp(w⋅F(y,x))其中,
Z
w
(
x
)
=
∑
y
e
x
p
(
w
⋅
F
(
y
,
x
)
)
Z_w(x) = \sum_yexp(w\cdot F(y,x))
Zw(x)=y∑exp(w⋅F(y,x)) PS:这里对y求和指的是对所有可能的状态序列y求和。
- 条件随机场的矩阵形式
在前面的表达形式中,虽说达到了简化表达形式的目的,但在计算的过程中需要列出所有可能的y序列进行计算,不方便对算法进行优化。于是使用矩阵形式来表示该概率,可以实现对状态序列y 变化路径的模拟。这里引入了两个特殊的状态标记——起点和终点(
y
0
=
s
t
r
a
t
,
y
n
+
1
=
s
t
o
p
y_0 = strat,y_{n+1} = stop
y0=strat,yn+1=stop),为何引入这两个标记呢?前面提到过线性链条件随机场中两个端点比较特殊,只与一边有关联,若两边不人为引入特殊的状态标记,观测点在连接节点的边上,于是在观测第一个点的时候,其特征函数是
t
k
=
(
y
1
,
y
2
,
x
,
1
)
,
s
l
=
(
y
2
,
x
,
1
)
t_k = (y_1,y_2,x,1),s_l = (y_2,x,1)
tk=(y1,y2,x,1),sl=(y2,x,1),发现
y
1
y_1
y1的状态特征函数
s
l
s_l
sl被直接忽略了。而这种情况前面添加一个起点标记就能解决。添加终点标记是为什么呢?个人认为是为了最后将非规范化概率的求和能够以矩阵乘法的形式统一起来。添加了起点和终点的状态序列相当于将原来从m(状态的可能取值)个起点和终点的各种路线又添加了一个起点和终点将其汇合在一起,同时,这种操作并不影响原来可能的路径条数。在矩阵乘法时还能方便的将所有概率汇集到添加的终点。
添加了起点和终点的状态序列有n + 2 个位置,于是有 n + 1 个观测点,在每个观测点定义一个m阶的矩阵(m是状态变量Y可能的取值个数),那么每个观测点的状态转移路径可由矩阵位置保存,势函数可由定义其上的特征函数表示
M
i
(
x
)
=
[
M
i
(
y
i
−
1
,
y
i
∣
x
)
]
M
i
(
y
i
−
1
,
y
i
∣
x
)
=
e
x
p
(
W
i
(
y
i
−
1
,
y
i
∣
x
)
)
W
i
(
y
i
−
1
,
y
i
∣
x
)
=
∑
k
=
1
K
w
k
f
k
(
y
i
−
1
,
y
i
,
x
,
i
)
M_i(x) = [M_i(y_{i-1},y_i|x)]\\ M_i(y_{i-1},y_i|x) = exp(W_i(y_{i-1},y_i|x))\\ W_i(y_{i-1},y_i|x) = \sum_{k=1}^Kw_kf_k(y_{i-1},y_i,x,i)
Mi(x)=[Mi(yi−1,yi∣x)]Mi(yi−1,yi∣x)=exp(Wi(yi−1,yi∣x))Wi(yi−1,yi∣x)=k=1∑Kwkfk(yi−1,yi,x,i)其中,
M
i
(
y
i
−
1
,
y
i
∣
x
)
M_i(y_{i-1},y_i|x)
Mi(yi−1,yi∣x)中的
(
y
i
−
1
,
y
i
)
(y_{i-1},y_i)
(yi−1,yi)表示的该势函数在矩阵中的位置,
W
i
(
y
i
−
1
,
y
i
∣
x
)
W_i(y_{i-1},y_i|x)
Wi(yi−1,yi∣x)表示该段路径上状态特征和转移特征的势函数大小。
于是,给定观测序列x,状态(标记)序列y的非规范化概率可以通过这 n+1 个矩阵的乘积表示
∏
i
=
1
n
+
1
M
i
(
x
)
\prod_{i=1}^{n+1} M_i(x)
i=1∏n+1Mi(x)其条件概率为
P
w
(
y
∣
x
)
=
1
Z
(
x
)
∏
i
=
1
n
+
1
M
i
(
x
)
P_w(y|x) = \frac 1 {Z(x)} \prod_{i=1}^{n+1} M_i(x)
Pw(y∣x)=Z(x)1i=1∏n+1Mi(x)其中,Z(x)为规范化因子
Z
(
x
)
=
(
M
1
(
x
)
⋅
M
2
(
x
)
⋯
M
n
+
1
(
x
)
)
s
t
r
a
t
,
s
t
o
p
Z(x) = (M_1(x)\cdot M_2(x)\cdots M_{n+1}(x))_{strat,stop}
Z(x)=(M1(x)⋅M2(x)⋯Mn+1(x))strat,stop正如前面叙述的添加的起点和终点的作用,它们将所有概率汇集到矩阵中的一个位置。下面由一个例子演示。
上图描述了一个数量为3的状态序列 y ,并且状态
y
i
∈
{
1
,
2
}
,
i
=
1
,
2
,
3
y_i \in \{1,2\},i = 1,2,3
yi∈{1,2},i=1,2,3 ,在添加起点和终点标记后由矩阵表示的状态路径。若
s
t
a
r
t
和
s
t
o
p
start和stop
start和stop 定义在
{
1
,
2
}
\{1,2\}
{1,2} ,那么每个矩阵都是 2 阶矩阵,假设
s
t
a
r
t
=
s
t
o
p
=
1
start=stop = 1
start=stop=1 。则4个观测位置的随机矩阵分别为
M
1
(
x
)
=
[
a
01
a
02
0
0
]
,
M
2
(
x
)
=
[
b
11
b
12
b
21
b
22
]
M
3
(
x
)
=
[
c
11
c
12
c
21
c
22
]
,
M
4
(
x
)
=
[
1
0
1
0
]
\begin{aligned} M_1(x) = \begin{bmatrix} a_{01} &a_{02} \\ 0 & 0 \end{bmatrix} ,& M_2(x) = \begin{bmatrix} b_{11} & b_{12} \\ b_{21}& b_{22} \end{bmatrix}\\ M_3(x) = \begin{bmatrix} c_{11} & c_{12} \\ c_{21} & c_{22} \end{bmatrix} ,& M_4(x) = \begin{bmatrix} 1 & 0 \\ 1 & 0 \end{bmatrix} \end{aligned}
M1(x)=[a010a020],M3(x)=[c11c21c12c22],M2(x)=[b11b21b12b22]M4(x)=[1100] 该线性链条件随机场的规范化因子(所有路径的非规范化概率之和)可通过计算矩阵乘积
Z
(
x
)
=
M
1
(
x
)
M
2
(
x
)
M
3
(
x
)
M
4
(
x
)
(
s
t
a
r
t
,
s
t
o
p
)
Z(x) = M_1(x)M_2(x)M_3(x)M_4(x)_{(start,stop)}
Z(x)=M1(x)M2(x)M3(x)M4(x)(start,stop)并取第
s
t
a
r
t
start
start 行
s
t
o
p
stop
stop 列的元素得到。矩阵是如何将本该是各路径的和,分解为每个观测点得到的势函数的和呢?将这个乘积矩阵的第start行第stop列的元素展开
a
01
b
11
c
11
+
a
02
b
21
c
11
+
⋯
+
a
02
b
22
c
21
a_{01}b_{11}c_{11}+a_{02}b_{21}c_{11}+\cdots+a_{02}b_{22}c_{21}
a01b11c11+a02b21c11+⋯+a02b22c21实际上就是
2
3
=
8
2^3 = 8
23=8条路径的和,
注意
(
y
i
−
1
,
y
i
)
(y_{i-1},y_i)
(yi−1,yi)中,在下一个矩阵中的位置变为
(
y
i
,
y
i
+
1
)
(y_i,y_{i+1})
(yi,yi+1),上一个矩阵中的列位置与下一个矩阵中的行位置是对应的,在矩阵乘法的时候,它们正好按这种关系相乘,实际上就是将上一个观测点的状态值与下一个观测点的状态值联系起来,这便计算了当前路径的非规范化概率和,将其全部乘在一起时便计算出了总共的规范化因子。并且人为加入了终点标记,终点标记与起点表示都只有一个取值,那么最后便将其汇集在矩阵的一个元素,这个元素的位置是
(
s
t
a
r
t
,
s
t
o
p
)
(start,stop)
(start,stop) 。
这个例子数据比较简单,可以手动算一下就清楚了。
- 条件随机场的概率计算
通过定义矩阵,将非规范化的概率用一串矩阵的乘积表达了出来。其中每个矩阵表示从上一个位置到当前位置的路径上的特征函数大小,但是若要计算当前位置是某个状态 y i y_i yi的条件概率,矩阵却不能方便的表达这一问题。于是使用类似HMM中的方法,定义前向,后向向量。个人觉得它的作用是将前面(后面)的非规范化概率归纳起来,并按状态变量的取值分为m条路径,对应向量中的某维数值。这样便能方便的计算当前位置取某一个状态的非规范化概率。
- 前向-后向算法
对每个位置 i = 0 , 1 , ⋯   , n + 1 i = 0,1,\cdots,n+1 i=0,1,⋯,n+1,定义前向向量 α i ( x ) : \alpha_i(x): αi(x):
α
0
(
y
∣
x
)
=
{
1
,
y
0
=
s
t
a
r
t
0
,
e
l
s
e
\alpha_0(y|x)= \left\{\begin{aligned} &1,&y_0=start\\ &0,&else \end{aligned}\right.
α0(y∣x)={1,0,y0=startelse 由此得到递推公式
α
i
T
(
y
i
∣
x
)
=
α
)
i
−
1
T
(
y
i
−
1
∣
x
)
M
i
(
y
i
−
1
,
y
i
∣
x
)
,
i
=
1
,
2
,
⋯
 
,
n
+
1
\alpha_i^T(y_i|x) = \alpha)_{i-1}^T(y_{i-1}|x)M_i(y_{i-1},y_i|x), i = 1,2,\cdots,n+1
αiT(yi∣x)=α)i−1T(yi−1∣x)Mi(yi−1,yi∣x),i=1,2,⋯,n+1简写为
α
i
T
(
x
)
=
α
i
−
1
T
(
x
)
M
i
(
x
)
\alpha_i^T(x)=\alpha_{i-1}^T(x)M_i(x)
αiT(x)=αi−1T(x)Mi(x)其中
α
i
(
y
i
∣
x
)
\alpha_i(y_i|x)
αi(yi∣x)表示从初始位置到当前位置
i
i
i,并且状态是
y
i
y_i
yi的非规范化概率,
y
i
y_i
yi有m个取值,因此
α
i
(
x
)
\alpha_i(x)
αi(x)是m维列向量。
对于这个递推式还是很好理解的,向量的每个元素代表了一个状态,向量乘矩阵就是将原来是上一个位置的m种状态到当前位置的m种状态的非规范化概率总结了一下,把它们到当前位置的同一个状态的归纳起来就从二维矩阵变成了一维向量。
同样,对每个位置定义后向向量
β
i
(
x
)
\beta_i(x)
βi(x):
β
n
+
1
(
y
n
+
1
∣
x
)
=
{
1
,
y
n
+
1
=
s
t
o
p
0
,
e
l
s
e
\beta_{n+1}(y_{n+1}|x) = \left\{\begin{aligned} &1,&y_{n+1}=stop\\ &0,&else \end{aligned}\right.
βn+1(yn+1∣x)={1,0,yn+1=stopelse递推式
β
i
(
y
i
∣
x
)
=
M
i
(
y
i
,
y
i
+
1
∣
x
)
β
i
+
1
(
y
i
+
1
∣
x
)
\beta_i(y_i|x) = M_i(y_i,y_{i+1}|x) \beta_{i+1}(y_{i+1}|x)
βi(yi∣x)=Mi(yi,yi+1∣x)βi+1(yi+1∣x)简化为
β
i
(
x
)
=
M
i
+
1
(
x
)
β
i
+
1
(
x
)
\beta_i(x) = M_{i+1}(x) \beta_{i+1}(x)
βi(x)=Mi+1(x)βi+1(x)其中,
β
i
(
y
i
∣
x
)
\beta_i(y_i|x)
βi(yi∣x)表示从位置n 到 位置
i
+
1
i+1
i+1,且位置
i
i
i的状态为
y
i
y_i
yi的非规范化概率。
由前向-后向向量的定义可以得到:
Z
(
x
)
=
α
n
T
(
x
)
⋅
1
=
1
T
⋅
β
1
(
x
)
Z(x) = \alpha_n^T(x) \cdot1 = 1^T\cdot \beta_1(x)
Z(x)=αnT(x)⋅1=1T⋅β1(x)其中,1是元素均为1的m维列向量。
- 概率计算
由前面对从矩阵到向量的分析,可以很容易的表达状态序列在位置
i
i
i是标记
y
i
y_i
yi的条件概率
P
(
Y
i
=
y
i
∣
x
)
P(Y_i=y_i|x)
P(Yi=yi∣x)以及在位置
i
−
1
和
i
i-1和i
i−1和i是状态
y
i
−
1
和
y
i
y_{i-1}和y_i
yi−1和yi的条件概率
P
(
Y
i
−
1
=
y
i
−
1
,
Y
i
=
y
i
∣
x
)
P(Y_{i-1} = y_{i-1},Y_i = y_i|x)
P(Yi−1=yi−1,Yi=yi∣x)。对于
P
(
Y
i
=
y
i
∣
x
)
P(Y_i=y_i|x)
P(Yi=yi∣x),
y
i
y_i
yi有m种取值,在求解它的非规范化概率时,除了位置
i
i
i的状态确定,其它位置都是不确定的,因此需要求解其它位置的所有状态的排列。这不正是定义的前向和后向向量吗,再除于
Z
(
x
)
Z(x)
Z(x)便得到了条件概率。
P
(
Y
i
=
y
i
∣
x
)
=
α
i
T
(
y
i
∣
x
)
β
i
(
y
i
∣
x
)
Z
(
x
)
P(Y_i=y_i|x) = \frac {\alpha_iT(y_i|x)\beta_i(y_i|x)} {Z(x)}
P(Yi=yi∣x)=Z(x)αiT(yi∣x)βi(yi∣x)另一个与它类似,只不过多确定了一个位置的状态,这样非规范化概率的组合又少了一些而已
P
(
Y
i
−
1
=
y
i
−
1
,
Y
i
=
y
i
∣
x
)
=
α
i
−
1
T
(
y
i
−
1
∣
x
)
M
i
(
y
i
−
1
,
y
i
∣
x
)
β
i
(
y
i
∣
x
)
Z
(
x
)
P(Y_{i-1} = y_{i-1},Y_i = y_i|x)=\frac {\alpha_{i-1}T(y_{i-1}|x) M_i(y_{i-1},y_i|x) \beta_i(y_i|x)} {Z(x)}
P(Yi−1=yi−1,Yi=yi∣x)=Z(x)αi−1T(yi−1∣x)Mi(yi−1,yi∣x)βi(yi∣x)其中,
Z
(
x
)
=
α
n
T
(
x
)
⋅
1
Z(x) =\alpha_n^T(x) \cdot 1
Z(x)=αnT(x)⋅1
- 期望值计算
除了可以方便的计算这两个条件概率外,利用前向-后向向量还可以方便的计算两个与特征函数相关的数学期望。线性链条件随机场的特征函数有个特点就是只与相邻的两个状态有关,那么求其期望时对所有状态变量y的组合求和时只需要求其相邻的状态变量的组合即可。这与前文HMM中一些概率的计算原理一样。
特征函数
f
k
f_k
fk关于
P
(
Y
∣
X
)
P(Y|X)
P(Y∣X)的期望是
E
P
(
Y
∣
X
)
[
f
k
]
=
∑
y
0
⋯
∑
y
n
+
1
P
(
y
∣
x
)
f
k
(
y
,
x
)
=
∑
i
=
1
n
+
1
∑
y
i
−
1
y
i
f
k
(
y
i
−
1
,
y
i
,
x
,
i
)
α
i
−
1
T
(
y
i
−
1
∣
x
)
M
i
(
y
i
−
1
,
y
i
∣
x
)
β
i
(
y
i
∣
x
)
Z
(
x
)
k
=
1
,
2
,
⋯
 
,
K
\begin{aligned} E_{P(Y|X)}[f_k] =& \sum _{y_0}\cdots \sum_{y_{n+1}} P(y|x) f_k(y,x)\\ =& \sum _{i=1}^{n+1} \sum _{y_{i-1}y_i} f_k(y_{i-1},y_i,x,i) \frac {\alpha_{i-1}T(y_{i-1}|x) M_i(y_{i-1},y_i|x) \beta_i(y_i|x)} {Z(x)}\\ & k=1,2,\cdots,K \end{aligned}
EP(Y∣X)[fk]==y0∑⋯yn+1∑P(y∣x)fk(y,x)i=1∑n+1yi−1yi∑fk(yi−1,yi,x,i)Z(x)αi−1T(yi−1∣x)Mi(yi−1,yi∣x)βi(yi∣x)k=1,2,⋯,K其中,
Z
(
x
)
=
α
n
T
(
x
)
⋅
1
Z(x) = \alpha_n^T(x) \cdot 1
Z(x)=αnT(x)⋅1
该式对相邻状态的概率求和,而相邻两个位置的条件概率在上面通过前向后向向量表示了,因此可以拆解为对相邻两个状态组合的求和。
而特征函数关于联合分布
P
(
Y
,
X
)
P(Y,X)
P(Y,X)的数学期望同样,为了利用已求得的条件分布
P
(
Y
∣
X
)
P(Y|X)
P(Y∣X)表达式,将联合分布用概率乘法拆解为X的经验分布和条件分布即可,假设经验分布
P
^
(
x
)
\widehat P(x)
P
(x)
E
P
(
X
,
Y
)
[
f
k
]
=
∑
X
,
Y
P
(
x
,
y
)
∑
i
=
1
n
+
1
f
k
(
y
i
−
1
,
y
i
,
x
,
i
)
=
∑
X
P
^
(
x
)
∑
Y
P
(
y
∣
x
)
∑
i
=
1
n
+
1
f
k
(
y
i
−
1
,
y
i
,
x
,
i
)
=
∑
X
P
^
(
x
)
⋅
E
P
(
Y
∣
X
)
[
f
k
]
\begin{aligned} E_{P(X,Y)}[f_k] =& \sum_{X,Y}P(x,y)\sum_{i=1}^{n+1}f_k(y_{i-1},y_i,x,i)\\ =&\sum_X \widehat P(x)\sum_YP(y|x)\sum_{i=1}^{n+1} f_k(y_{i-1},y_i,x,i)\\ =&\sum_X \widehat P(x) \cdot E_{P(Y|X)}[f_k] \end{aligned}
EP(X,Y)[fk]===X,Y∑P(x,y)i=1∑n+1fk(yi−1,yi,x,i)X∑P
(x)Y∑P(y∣x)i=1∑n+1fk(yi−1,yi,x,i)X∑P
(x)⋅EP(Y∣X)[fk]
于是,只要递归的计算出了所有的前向和后向向量,便可以容易的计算出所有的概率和特征的期望。