1 前言
在推导线性链CRF之前,我们先看一个词性标注(POS)的例子
在我们想要标注book
这个词的时候,是将其标注成名词noun
或者动词verb
是需要取决于当前词的前一个词的。在这种情境下,前一个词‘a’的词性一个限定词(determiner),所以我们选择将book
标注成noun
(名词)。对于这样的序列标记任务,以及更一般的结构化预测任务,Linear-chain CRF对标签之间的上下文依赖关系建模是有帮助的。
2 什么是结构化预测?
相信很多人对文本分类问题都比较熟悉,它的目标定义很简单,将一个文本样本输入到一个模型中,然后让模型输出一个结果标签,这个标签可以是一个二分类的标签,也可以是一个多分类的标签。而除了这种范式的问题外,NLP领域还有一大问题范式:序列类任务。这种任务最大的特点就是输出的标签是一个序列。而根据具体的任务形式,可以将序列类任务分成两种子类:
- 序列标注任务,对于一段文本,以词或者字符等基本语素为基本单位,模型输出的标签序列与原始文本的语素序列是一一对应的。具体的任务例子有词性标注,实体识别等。
- 序列生成任务,即大家熟知的NLG任务。与序列标注任务不同,它不要求输出的标签序列与原始文本序列一一对应,长度也不需要相同。常见的序列生成任务有机器翻译,文本摘要,智能对话回答生成等。
当然也可以将序列标注任务视作特殊的序列生成任务来做,只不过要加上长度的限定条件。
这种序列类任务的共同特点是每个文本样本都会有指数级或者无限量级的标签序列候选组合。对于词性标注来说,假设一共有n种词性,那么对一个长度为L的文本,所有可能出现的标签序列组合有 n L n^{L} nL种。对于序列生成任务如机器翻译来说,抛开一些模型的限定条件,它可能生成的标签序列即目标语种词序列是无限的。
基于上述特点,要解上述问题,需要设计一些方法,将问题结构化,使得模型能够较为高效得去学习,去训练。常用的结构化预测模型有:基于RNN的decoder、卷积网络作为decoder、引入注意力机制的decoder、条件随机场等等。
而常用的训练算法有:
- Structured perceptron,structured large margin
- sampling corruptions of data
- 使用动态规划算法
- 使用强化学习或者minimum risk training
总结而言:结构化预测(Structured Prediction)是解决分类或回归问题的框架,其中输出变量相互依赖或约束。它可以被看作是我们利用输出空间中的结构的预测子集,可以理解为上一时刻的输出可以作为下一个预测的输入。结构化预测问题中使用的损失函数将输出视为一个整体。
词性标注任务定义
我们将输入序列单词记为
x
x
x,输出空间(即所有可能的词性目标序列的集合)记为
y
y
y,函数
f
(
x
,
y
)
f(x,y)
f(x,y)代表
x
x
x和
y
y
y的拟合函数,预测标签可以使用如下公式:
y
⋆
=
a
r
g
max
y
∈
Y
f
(
x
,
y
)
\mathbf{y}^{\star} = arg \max_{\mathbf{y} \in \mathcal{Y}} f(\mathbf{x}, \mathbf{y})
y⋆=argy∈Ymaxf(x,y)
其中${y}^{\star}
代
表
最
优
的
结
果
序
列
。
在
这
里
我
们
解
释
下
为
什
么
需
要
区
别
结
构
化
预
测
与
常
规
分
类
任
务
?
通
过
上
面
公
式
可
以
看
到
,
对
于
结
构
化
预
测
需
要
在
输
出
空
间
上
进
行
搜
索
:
寻
找
某
个
代表最优的结果序列。 在这里我们解释下为什么需要区别结构化预测与常规分类任务?通过上面公式可以看到,对于结构化预测需要在输出空间上进行搜索:寻找某个
代表最优的结果序列。在这里我们解释下为什么需要区别结构化预测与常规分类任务?通过上面公式可以看到,对于结构化预测需要在输出空间上进行搜索:寻找某个y\in Y
来
使
得
来使得
来使得f(x, y)
最
大
化
,
通
常
这
种
情
况
是
非
常
复
杂
的
。
这
是
为
什
么
呢
?
对
于
我
们
这
个
词
性
序
列
标
注
任
务
而
言
,
假
设
所
有
可
能
的
P
O
S
标
签
个
数
为
最大化,通常这种情况是非常复杂的。这是为什么呢?对于我们这个词性序列标注任务而言,假设所有可能的POS标签个数为
最大化,通常这种情况是非常复杂的。这是为什么呢?对于我们这个词性序列标注任务而言,假设所有可能的POS标签个数为|S|
,
序
列
长
度
为
,序列长度为
,序列长度为m
,
那
么
所
有
可
能
输
出
空
间
包
含
,那么所有可能输出空间包含
,那么所有可能输出空间包含|S|^{m}
中
结
果
。
不
过
,
如
果
我
们
忽
略
输
出
空
间
中
的
依
赖
关
系
并
简
单
地
“
贪
心
算
法
”
连
续
解
码
,
我
们
可
以
使
用
以
下
面
的
公
式
分
别
对
输
入
序
列
中
的
所
有
单
词
进
行
解
码
,
仅
需
要
中结果。不过,如果我们忽略输出空间中的依赖关系并简单地“贪心算法”连续解码,我们可以使用以下面的公式分别对输入序列中的所有单词进行解码,仅需要
中结果。不过,如果我们忽略输出空间中的依赖关系并简单地“贪心算法”连续解码,我们可以使用以下面的公式分别对输入序列中的所有单词进行解码,仅需要|S|·m$操作:
y
i
⋆
=
a
r
g
max
y
∈
S
f
(
x
,
y
i
,
i
)
for
i
∈
{
1
,
…
,
m
}
y_i^{\star} = arg \max_{y \in S} f(x, y_i, i) \text{ for } i \in \{1, \dots, m\}
yi⋆=argy∈Smaxf(x,yi,i) for i∈{1,…,m}
3 条件随机场
条件随机场 (CRF, Lafferty et al., 2001 ) 是一种概率图模型,它结合了判别分类和图模型的优点。
3.1 判别式模型与生成式模型
对于分类任务的判别式模型中,我们直接对 $p( y|x ) 建 模 , 相 反 地 生 成 式 模 型 需 要 结 合 建模,相反地生成式模型需要结合 建模,相反地生成式模型需要结合p( y|x ) 和 预 测 结 果 的 贝 叶 斯 推 断 一 起 建 模 。 怎 么 理 解 这 句 话 ? 其 实 很 简 单 , 还 是 回 到 上 面 词 性 标 注 的 任 务 , 如 果 我 们 直 接 基 于 贪 心 思 想 直 接 基 于 条 件 概 率 构 建 模 型 , 则 它 们 之 间 的 和预测结果的贝叶斯推断一起建模。怎么理解这句话?其实很简单,还是回到上面词性标注的任务,如果我们直接基于贪心思想直接基于条件概率构建模型,则它们之间的 和预测结果的贝叶斯推断一起建模。怎么理解这句话?其实很简单,还是回到上面词性标注的任务,如果我们直接基于贪心思想直接基于条件概率构建模型,则它们之间的X$ 本身没有依赖关系,直接变成了 p ( y , x ) p(y,x) p(y,x)联合乘积就结束了。
- 生成式模型描述了一些标签如何是如何生成一些特征向量 X,而判别模型直接描述如何分配特征向量 X 一个标签。
- CRF 是判别模型。
3.2 Probabilistic Graphical Models:概率图模型
概率图模型 (PGM) 将许多变量的复杂分布表示为变量较小子集的局部因素的乘积。生成模型先天然地可以由有向图模型表示,因为它们假设$ Y
可
以
生
成
可以 生成
可以生成 X
,
其
中
,其中
,其中p ( x , y) = p ( y) p ( x|y)$,而判别模型是纯天然的无向图模型(单纯的模型 :p ( y∣ x ))。请参见下图中左侧的生成 PGM 和右侧的判别式。
CRF 是判别模型,可以表示为因子图,由公式 G = ( V , E , F ) G=(V,E,F) G=(V,E,F)来建模表示:
-
V V V表示节点,即随机变量(在此处词性标注任务中是一个pos tag),具体地用 Y = ( y 1 , y 2 , . . . , y n ) Y=(y_{1},y_{2},...,y_{n}) Y=(y1,y2,...,yn)为随机变量建模,注意 Y Y Y现在是代表了一批随机变量(想象对应一条sequence,包含了很多的tag), P ( Y ) P(Y) P(Y)为这些随机变量的分布‘’
-
E E E表示边,即概率依赖关系
如果一个graph太大,可以用因子分解将
P
(
Y
)
P(Y)
P(Y)
写为若干个联合概率的乘积。咋分解呢,将一个图分为若干个“小团”,注意每个团必须是“最大团”(就是里面任何两个点连在了一块,就是最大连通子图),则有:
p
(
y
)
=
1
Z
∏
a
∈
F
ψ
a
(
y
N
(
a
)
)
p(y) = \frac{1}{Z} \prod_{a \in F} \psi_a(y_{N(a)})
p(y)=Z1a∈F∏ψa(yN(a))
其中
ψ
a
(
y
N
(
a
)
)
\psi_a(y_{N(a)})
ψa(yN(a))代表一个最大团a上随机变量的联合概率,下面线性链CRF会解释道。N(a)代表最大团上的节点集合,N代表neighbors 的意思。其中
Z
=
∑
∏
a
∈
F
ψ
a
(
y
N
(
a
)
)
Z=\sum{\prod_{a \in F} \psi_a(y_{N(a)})}
Z=∑∏a∈Fψa(yN(a)),归一化是为了让结果算作概率。
基于这种概率图结构,我们可以将CRF应用词性标注任务中,因为我们想要假设当前词性的标签依赖与此前字符的标签,这种基于概率图的CRF也称为 linear-chain CRF。
Linear-Chain CRF
现在我们设计一种针对词性标注的CRF模型,其中假设每一个标签
y
i
y_{i}
yi依赖于先前标签
y
i
−
1
y_{i-1}
yi−1,输入序列是词语{x}的序列,如下图“联通子图”表示:
这个特定的线性链 CRF 意味着以下条件独立假设:
每个 POS 标签只依赖于它的直接前继
y
t
−
1
y_{t-1}
yt−1和后继
y
t
+
1
y_{t+1}
yt+1和
X
X
X:
KaTeX parse error: Undefined control sequence: \unicode at position 14: y_t \mathrel{\̲u̲n̲i̲c̲o̲d̲e̲{x2AEB}} \{y_1,…
我们可以简单地将上述因子图中的所有因子相乘,得到分解后的条件概率分布:
p
(
y
∣
x
)
=
1
Z
(
x
)
∏
t
=
1
m
ψ
(
y
t
,
x
,
t
)
∏
t
=
1
m
−
1
ψ
(
y
t
,
y
t
+
1
)
\begin{aligned} p(\mathbf{y} \mid \mathbf{x}) &= \frac{1}{Z(\mathbf{x})} \prod_{t=1}^{m} \psi(y_t, \mathbf{x}, t) \prod_{t=1}^{m-1}\psi(y_t, y_{t+1}) \\ \end{aligned}
p(y∣x)=Z(x)1t=1∏mψ(yt,x,t)t=1∏m−1ψ(yt,yt+1)
另外,CRF奏效的一个重要因素是选择子团的计算方式
ψ
a
(
y
N
(
a
)
)
\psi_a(y_{N(a)})
ψa(yN(a)),这个函数通常叫势函数,是一组实值特征函数的线性组合,即
f
(
⋅
)
f(·)
f(⋅)和
θ
1
\theta_{1}
θ1、
θ
2
\theta_{2}
θ2组合,如下公式所示:
直观上我们可以这么理解上面这个公式,第一个累加和代表时刻
t
t
t的标签
y
t
y_{t}
yt预测概率,第二个累加和代表
y
t
y_{t}
yt和
y
t
+
1
y_{t+1}
yt+1的同时发生的概率。幸运的是有了深度学习之后,特征函数
f
(
⋅
)
f(·)
f(⋅)不需要我们手动构建。
Z
(
x
)
Z(x)
Z(x)就是partition function,来保证公式是一个正确定义的概率分布,保证所有y出现的概率总和为 1。我们看到上面公式的计算还是很麻烦的,接下来就是 belief propagation(消息传播)算法登场了。
4 训练Linear-Chain CRF
我们可以用最大似然估计算法训练 CRF的参数,给定一组 N数据点,使用对似然执行梯度下降算法计算PGM的联合概率,这些可以通过消息传播算法来计算。让我们看一下对数似然:
log
L
(
θ
)
=
log
∏
i
=
1
N
p
(
y
(
i
)
∣
x
(
i
)
,
θ
)
=
log
[
∏
i
=
1
N
1
Z
(
x
(
i
)
)
∏
t
=
1
m
ψ
(
y
t
(
i
)
,
x
t
(
i
)
,
t
)
∏
t
=
1
m
−
1
ψ
(
y
t
(
i
)
,
y
t
+
1
(
i
)
)
]
=
log
[
∏
i
=
1
N
1
Z
(
x
(
i
)
)
exp
(
∑
t
=
1
m
θ
1
f
(
y
t
(
i
)
,
x
t
(
i
)
,
t
)
+
∑
t
=
1
m
−
1
θ
2
f
(
y
t
(
i
)
,
y
t
+
1
(
i
)
)
)
]
=
log
[
∏
i
=
1
N
exp
(
∑
t
=
1
m
θ
1
f
(
y
t
(
i
)
,
x
t
(
i
)
,
t
)
+
∑
t
=
1
m
−
1
θ
2
f
(
y
t
(
i
)
,
y
t
+
1
(
i
)
)
)
]
+
log
[
∏
i
=
1
N
1
Z
(
x
(
i
)
)
]
=
∑
i
=
1
N
∑
t
=
1
m
θ
1
f
(
y
t
(
i
)
,
x
t
(
i
)
,
t
)
+
∑
t
=
1
m
−
1
θ
2
f
(
y
t
(
i
)
,
y
t
+
1
(
i
)
)
−
∑
i
=
1
N
log
(
Z
(
x
(
i
)
)
)
\begin{aligned} \log \mathcal{L}(\boldsymbol{\theta}) &= \log{\prod_{i=1}^N p(\mathbf{y}^{(i)} \mid \mathbf{x}^{(i)}, \boldsymbol{\theta}) } = \log{\Bigg[\prod_{i=1}^N \frac{1}{Z(\mathbf{x}^{(i)})}\prod_{t=1}^m \psi (y_t^{(i)}, \mathbf{x}_t^{(i)}, t) \prod_{t=1}^{m-1} \psi (y_t^{(i)}, y_{t+1}^{(i)}) \Bigg]} \\ &= \log{\Bigg[\prod_{i=1}^N \frac{1}{Z(\mathbf{x}^{(i)})} \exp\Bigg(\sum_{t=1}^m \boldsymbol{\theta}_1 f(y_t^{(i)}, \mathbf{x}_t^{(i)}, t) + \sum_{t=1}^{m-1} \boldsymbol{\theta}_2 f(y_t^{(i)}, y_{t+1}^{(i)})\Bigg)\Bigg]} \\ &= \log{\Bigg[\prod_{i=1}^N \exp\Bigg(\sum_{t=1}^m \boldsymbol{\theta}_1 f(y_t^{(i)}, \mathbf{x}_t^{(i)}, t) + \sum_{t=1}^{m-1} \boldsymbol{\theta}_2 f(y_t^{(i)}, y_{t+1}^{(i)})\Bigg)\Bigg]} + \log{\Bigg[\prod_{i=1}^N \frac{1}{Z(\mathbf{x}^{(i)})} \Bigg]} \\ &= \sum_{i=1}^{N}\sum_{t=1}^m \boldsymbol{\theta}_1 f(y_t^{(i)}, \mathbf{x}_t^{(i)}, t) + \sum_{t=1}^{m-1} \boldsymbol{\theta}_2 f(y_t^{(i)}, y_{t+1}^{(i)}) - \sum_{i=1}^{N}\log\left(Z(\mathbf{x}^{(i)})\right) \\ \end{aligned}
logL(θ)=logi=1∏Np(y(i)∣x(i),θ)=log[i=1∏NZ(x(i))1t=1∏mψ(yt(i),xt(i),t)t=1∏m−1ψ(yt(i),yt+1(i))]=log[i=1∏NZ(x(i))1exp(t=1∑mθ1f(yt(i),xt(i),t)+t=1∑m−1θ2f(yt(i),yt+1(i)))]=log[i=1∏Nexp(t=1∑mθ1f(yt(i),xt(i),t)+t=1∑m−1θ2f(yt(i),yt+1(i)))]+log[i=1∏NZ(x(i))1]=i=1∑Nt=1∑mθ1f(yt(i),xt(i),t)+t=1∑m−1θ2f(yt(i),yt+1(i))−i=1∑Nlog(Z(x(i)))
为了优化参数,我们需要计算对数似然参数的梯度,如下:
参数
θ
2
\theta_{2}
θ2的梯度如下:
参数推理
条件随机场的概率计算问题就是给定条件随机场
P
(
Y
∣
X
)
P(Y|X)
P(Y∣X),输入序列x和输出序列y,计算提交概率P(Y_{i}=y_{i}|x),P(Y_{i-1}=y_{i-1},Y_{i}=y_{i}|x)。
将问题拆分成多个子问题进行求解:
Z
(
x
)
=
∑
y
′
(
∏
t
=
1
m
ψ
(
y
t
′
,
x
,
t
)
⋅
∏
t
=
1
m
−
1
ψ
(
y
t
′
,
y
t
+
1
′
)
)
=
∑
y
1
′
∑
y
2
′
⋯
∑
y
m
′
ψ
(
y
1
′
,
x
,
1
)
⋅
⋯
⋅
ψ
(
y
m
′
,
x
,
m
)
⋅
ψ
(
y
1
′
,
y
2
′
)
⋅
⋯
⋅
ψ
(
y
m
−
1
′
,
y
m
′
)
\begin{aligned} Z(\mathbf{x}) &= \sum_{\mathbf{y}^{\prime}}\left(\prod_{t=1}^m \psi(y^{\prime}_t, \mathbf{x}, t) \cdot \prod_{t=1}^{m-1} \psi(y^{\prime}_t, y^{\prime}_{t+1})\right) \\ &= \sum_{y^{\prime}_1}\sum_{y^{\prime}_2}\dots\sum_{y^{\prime}_m}\psi(y^{\prime}_1, \mathbf{x}, 1) \cdot \dots \cdot \psi(y^{\prime}_m, \mathbf{x}, m) \cdot \psi(y^{\prime}_1, y^{\prime}_{2}) \cdot \dots \cdot \psi(y^{\prime}_{m-1}, y^{\prime}_{m}) \end{aligned}
Z(x)=y′∑(t=1∏mψ(yt′,x,t)⋅t=1∏m−1ψ(yt′,yt+1′))=y1′∑y2′∑⋯ym′∑ψ(y1′,x,1)⋅⋯⋅ψ(ym′,x,m)⋅ψ(y1′,y2′)⋅⋯⋅ψ(ym−1′,ym′)
对于前向概率可以用如下公式计算:
对于最后一项:
对于后向概率计算:
整体概率:
归一化之后:
参考资料
Structured Prediction part one - Deriving a Linear-chain CRF
CMU NLP课程总结—— Structured Prediction Basics
概率图模型体系:HMM、MEMM、CRF