昇思25天学习打卡营第25天|MindSporeK基于LSTM+CRF序列标注学习- 分词(Word Segmentation)、词性标注(Position Tagging)、命名实体识别(Named

LSTM+CRF序列标注

概述
序列标注指给定输入序列,给序列中每个Token进行标注标签的过程。序列标注问题通常用于从文本中进行信息抽取,包括分词(Word Segmentation)、词性标注(Position Tagging)、命名实体识别(Named Entity Recognition, NER)等。以命名实体识别为例:

输入序列 清 华 大 学 座 落 于 首 都 北 京
输出标注 B I I I O O O O O B I

如上表所示,清华大学 和 北京是地名,需要将其识别,我们对每个输入的单词预测其标签,最后根据标签来识别实体。

这里使用了一种常见的命名实体识别的标注方法——“BIOE”标注,将一个实体(Entity)的开头标注为B,其他部分标注为I,非实体标注为O。

条件随机场(Conditional Random Field, CRF)

从上文的举例可以看到,对序列进行标注,实际上是对序列中每个Token进行标签预测,可以直接视作简单的多分类问题。但是序列标注不仅仅需要对单个Token进行分类预测,同时相邻Token直接有关联关系。以清华大学一词为例:

输入序列 清 华 大 学
输出标注 B I I I √
输出标注 O I I I ×

如上表所示,正确的实体中包含的4个Token有依赖关系,I前必须是B或I,而错误输出结果将清字标注为O,违背了这一依赖。将命名实体识别视为多分类问题,则每个词的预测概率都是独立的,易产生类似的问题,因此需要引入一种能够学习到此种关联关系的算法来保证预测结果的正确性。而条件随机场是适合此类场景的一种概率图模型。下面对条件随机场的定义和参数化形式进行简析。

考虑到序列标注问题的线性序列特点,本节所述的条件随机场特指线性链条件随机场(Linear Chain CRF)

设 𝑥={𝑥0,…,𝑥𝑛}为输入序列, 𝑦={𝑦0,…,𝑦𝑛},𝑦∈𝑌为输出的标注序列,其中 𝑛为序列的最大长度, 𝑌表示 𝑥对应的所有可能的输出序列集合。则输出序列 𝑦的概率为:

𝑃(𝑦|𝑥)=exp(Score(𝑥,𝑦))∑𝑦′∈𝑌exp(Score(𝑥,𝑦′))(1)

设 𝑥𝑖 , 𝑦𝑖为序列的第 𝑖个Token和对应的标签,则 Score需要能够在计算 𝑥𝑖和 𝑦𝑖的映射的同时,捕获相邻标签 𝑦𝑖−1和 𝑦𝑖之间的关系,因此我们定义两个概率函数:

发射概率函数 𝜓EMIT:表示 𝑥𝑖→𝑦𝑖 的概率。
转移概率函数 𝜓TRANS:表示 𝑦𝑖−1→𝑦𝑖的概率。

则可以得到 Score的计算公式:

Score(𝑥,𝑦)=∑𝑖log𝜓EMIT(𝑥𝑖→𝑦𝑖)+log𝜓TRANS(𝑦𝑖−1→𝑦𝑖)(2)

设标签集合为 𝑇,构造大小为 |𝑇|𝑥|𝑇|的矩阵 𝐏,用于存储标签间的转移概率;由编码层(可以为Dense、LSTM等)输出的隐状态 ℎ可以直接视作发射概率,此时 Score的计算公式可以转化为:

Score(𝑥,𝑦)=∑𝑖ℎ𝑖[𝑦𝑖]+𝐏𝑦𝑖−1,𝑦𝑖(3)

完整的CRF完整推导可参考Log-Linear Models, MEMMs, and CRFs

接下来我们根据上述公式,使用MindSpore来实现CRF的参数化形式。首先实现CRF层的前向训练部分,将CRF和损失函数做合并,选择分类问题常用的负对数似然函数(Negative Log Likelihood, NLL),则有:

Loss=−𝑙𝑜𝑔(𝑃(𝑦|𝑥))(4)

由公式 (1)可得,

Loss=−𝑙𝑜𝑔(exp(Score(𝑥,𝑦))∑𝑦′∈𝑌exp(Score(𝑥,𝑦′)))(5)=𝑙𝑜𝑔(∑𝑦′∈𝑌exp(Score(𝑥,𝑦′))−Score(𝑥,𝑦)

根据公式 (5),我们称被减数为Normalizer,减数为Score,分别实现后相减得到最终Loss。

Score计算

首先根据公式 (3)计算正确标签序列所对应的得分,这里需要注意,除了转移概率矩阵 𝐏外,还需要维护两个大小为 |𝑇|的向量,分别作为序列开始和结束时的转移概率。同时我们引入了一个掩码矩阵 𝑚𝑎𝑠k ,将多个序列打包为一个Batch时填充的值忽略,使得 Score计算仅包含有效的Token。

%%capture captured_output
# 实验环境已经预装了mindspore==2.2.14,如需更换mindspore版本,可更改下面mindspore的版本号
!pip uninstall mindspore -y
!pip install -i https://pypi.mirrors.ustc.edu.cn/simple mindspore==2.2.14
# 查看当前 mindspore 版本
!pip show mindspore
def compute_score(emissions, tags, seq_ends, mask, trans, start_trans, end_trans):
    # emissions: (seq_length, batch_size, num_tags)
    # tags: (seq_length, batch_size)
    # mask: (seq_length, batch_size)
​
    seq_length, batch_size = tags.shape
    mask = mask.astype(emissions.dtype)
​
    # 将score设置为初始转移概率
    # shape: (batch_size,)
    score = start_trans[tags[0]]
    # score += 第一次发射概率
    # shape: (batch_size,)
    score += emissions[0, mnp.arange(batch_size), tags[0]]for i in range(1, seq_length):
        # 标签由i-1转移至i的转移概率(当mask == 1时有效)
        # shape: (batch_size,)
        score += trans[tags[i - 1], tags[i]] * mask[i]
​
        # 预测tags[i]的发射概率(当mask == 1时有效)
        # shape: (batch_size,)
        score += emissions[i, mnp.arange(batch_size), tags[i]] * mask[i]
​
    # 结束转移
    # shape: (batch_size,)
    last_tags = tags[seq_ends, mnp.arange(batch_size)]
    # score += 结束转移概率
    # shape: (batch_size,)
    score += end_trans[last_tags]return score

在这里插入图片描述

Normalizer计算

根据公式 (5),Normalizer是 𝑥对应的所有可能的输出序列的Score的对数指数和(Log-Sum-Exp)。此时如果按穷举法进行计算,则需要将每个可能的输出序列Score都计算一遍,共有 |𝑇|𝑛个结果。这里我们采用动态规划算法,通过复用计算结果来提高效率。

假设需要计算从第 0至第 𝑖个Token所有可能的输出序列得分 Scorei ,则可以先计算出从第 0至第 𝑖−1个Token所有可能的输出序列得分 Score𝑖−1。因此,Normalizer可以改写为以下形式:

𝑙𝑜𝑔(∑𝑦′0,𝑖∈𝑌exp(Score𝑖))=𝑙𝑜𝑔(∑𝑦′0,𝑖−1∈𝑌exp(Score𝑖−1+ℎ𝑖+𝐏))(6)

其中 ℎ𝑖为第 𝑖个Token的发射概率, 𝐏是转移矩阵。由于发射概率矩阵 ℎ和转移概率矩阵 𝐏独立于 𝑦的序列路径计算,可以将其提出,可得:

𝑙𝑜𝑔(∑𝑦′0,𝑖∈𝑌exp(Score𝑖))=𝑙𝑜𝑔(∑𝑦′0,𝑖−1∈𝑌exp(Score𝑖−1))+ℎ𝑖+𝐏(7)

根据公式(7),Normalizer的实现如下:

def compute_normalizer(emissions, mask, trans, start_trans, end_trans):
    # emissions: (seq_length, batch_size, num_tags)
    # mask: (seq_length, batch_size)
​
    seq_length = emissions.shape[0]
​
    # 将score设置为初始转移概率,并加上第一次发射概率
    # shape: (batch_size, num_tags)
    score = start_trans + emissions[0]for i in range(1, seq_length):
        # 扩展score的维度用于总score的计算
        # shape: (batch_size, num_tags, 1)
        broadcast_score = score.expand_dims(2)
​
        # 扩展emission的维度用于总score的计算
        # shape: (batch_size, 1, num_tags)
        broadcast_emissions = emissions[i].expand_dims(1)
​
        # 根据公式(7),计算score_i
        # 此时broadcast_score是由第0个到当前Token所有可能路径
        # 对应score的log_sum_exp
        # shape: (batch_size, num_tags, num_tags)
        next_score = broadcast_score + trans + broadcast_emissions
​
        # 对score_i做log_sum_exp运算,用于下一个Token的score计算
        # shape: (batch_size, num_tags)
        next_score = ops.logsumexp(next_score, axis=1)
​
        # 当mask == 1时,score才会变化
        # shape: (batch_size, num_tags)
        score = mnp.where(mask[i].expand_dims(1), next_score, score)
​
    # 最后加结束转移概率
    # shape: (batch_size, num_tags)
    score += end_trans
    # 对所有可能的路径得分求log_sum_exp
    # shape: (batch_size,)
    return ops.logsumexp(score, axis=1)

在这里插入图片描述

Viterbi算法

在完成前向训练部分后,需要实现解码部分。这里我们选择适合求解序列最优路径的Viterbi算法。与计算Normalizer类似,使用动态规划求解所有可能的预测序列得分。不同的是在解码时同时需要将第 𝑖个Token对应的score取值最大的标签保存,供后续使用Viterbi算法求解最优预测序列使用。

取得最大概率得分 Score,以及每个Token对应的标签历史 History后,根据Viterbi算法可以得到公式:

𝑃0,𝑖=𝑚𝑎𝑥(𝑃0,𝑖−1)+𝑃𝑖−1,𝑖

从第0个至第 𝑖个Token对应概率最大的序列,只需要考虑从第0个至第 𝑖−1个Token对应概率最大的序列,以及从第 𝑖
个至第 𝑖−1个概率最大的标签即可。因此我们逆序求解每一个概率最大的标签,构成最佳的预测序列。

由于静态图语法限制,我们将Viterbi算法求解最佳预测序列的部分作为后处理函数,不纳入后续CRF层的实现。

def viterbi_decode(emissions, mask, trans, start_trans, end_trans):
    # emissions: (seq_length, batch_size, num_tags)
    # mask: (seq_length, batch_size)
​
    seq_length = mask.shape[0]
​
    score = start_trans + emissions[0]
    history = ()for i in range(1, seq_length):
        broadcast_score = score.expand_dims(2)
        broadcast_emission = emissions[i].expand_dims(1)
        next_score = broadcast_score + trans + broadcast_emission
​
        # 求当前Token对应score取值最大的标签,并保存
        indices = next_score.argmax(axis=1)
        history += (indices,)
​
        next_score = next_score.max(axis=1)
        score = mnp.where(mask[i].expand_dims(1), next_score, score)
​
    score += end_trans
​
    return score, history
​
def post_decode(score, history, seq_length):
    # 使用Score和History计算最佳预测序列
    batch_size = seq_length.shape[0]
    seq_ends = seq_length - 1
    # shape: (batch_size,)
    best_tags_list = []
​
    # 依次对一个Batch中每个样例进行解码
    for idx in range(batch_size):
        # 查找使最后一个Token对应的预测概率最大的标签,
        # 并将其添加至最佳预测序列存储的列表中
        best_last_tag = score[idx].argmax(axis=0)
        best_tags = [int(best_last_tag.asnumpy())]
​
        # 重复查找每个Token对应的预测概率最大的标签,加入列表
        for hist in reversed(history[:seq_ends[idx]]):
            best_last_tag = hist[idx][best_tags[-1]]
            best_tags.append(int(best_last_tag.asnumpy()))
​
        # 将逆序求解的序列标签重置为正序
        best_tags.reverse()
        best_tags_list.append(best_tags)return best_tags_list

在这里插入图片描述

CRF层

完成上述前向训练和解码部分的代码后,将其组装完整的CRF层。考虑到输入序列可能存在Padding的情况,CRF的输入需要考虑输入序列的真实长度,因此除发射矩阵和标签外,加入seq_length参数传入序列Padding前的长度,并实现生成mask矩阵的sequence_mask方法。

综合上述代码,使用nn.Cell进行封装,最后实现完整的CRF层如下:

import mindspore as ms
import mindspore.nn as nn
import mindspore.ops as ops
import mindspore.numpy as mnp
from mindspore.common.initializer import initializer, Uniform
​
def sequence_mask(seq_length, max_length, batch_first=False):
    """根据序列实际长度和最大长度生成mask矩阵"""
    range_vector = mnp.arange(0, max_length, 1, seq_length.dtype)
    result = range_vector < seq_length.view(seq_length.shape + (1,))
    if batch_first:
        return result.astype(ms.int64)
    return result.astype(ms.int64).swapaxes(0, 1)class CRF(nn.Cell):
    def __init__(self, num_tags: int, batch_first: bool = False, reduction: str = 'sum') -> None:
        if num_tags <= 0:
            raise ValueError(f'invalid number of tags: {num_tags}')
        super().__init__()
        if reduction not in ('none', 'sum', 'mean', 'token_mean'):
            raise ValueError(f'invalid reduction: {reduction}')
        self.num_tags = num_tags
        self.batch_first = batch_first
        self.reduction = reduction
        self.start_transitions = ms.Parameter(initializer(Uniform(0.1), (num_tags,)), name='start_transitions')
        self.end_transitions = ms.Parameter(initializer(Uniform(0.1), (num_tags,)), name='end_transitions')
        self.transitions = ms.Parameter(initializer(Uniform(0.1), (num_tags, num_tags)), name='transitions')
​
    def construct(self, emissions, tags=None, seq_length=None):
        if tags is None:
            return self._decode(emissions, seq_length)
        return self._forward(emissions, tags, seq_length)
​
    def _forward(self, emissions, tags=None, seq_length=None):
        if self.batch_first:
            batch_size, max_length = tags.shape
            emissions = emissions.swapaxes(0, 1)
            tags = tags.swapaxes(0, 1)
        else:
            max_length, batch_size = tags.shape
​
        if seq_length is None:
            seq_length = mnp.full((batch_size,), max_length, ms.int64)
​
        mask = sequence_mask(seq_length, max_length)
​
        # shape: (batch_size,)
        numerator = compute_score(emissions, tags, seq_length-1, mask, self.transitions, self.start_transitions, self.end_transitions)
        # shape: (batch_size,)
        denominator = compute_normalizer(emissions, mask, self.transitions, self.start_transitions, self.end_transitions)
        # shape: (batch_size,)
        llh = denominator - numerator
​
        if self.reduction == 'none':
            return llh
        if self.reduction == 'sum':
            return llh.sum()
        if self.reduction == 'mean':
            return llh.mean()
        return llh.sum() / mask.astype(emissions.dtype).sum()
​
    def _decode(self, emissions, seq_length=None):
        if self.batch_first:
            batch_size, max_length = emissions.shape[:2]
            emissions = emissions.swapaxes(0, 1)
        else:
            batch_size, max_length = emissions.shape[:2]if seq_length is None:
            seq_length = mnp.full((batch_size,), max_length, ms.int64)
​
        mask = sequence_mask(seq_length, max_length)return viterbi_decode(emissions, mask, self.transitions, self.start_transitions, self.end_transitions)

在这里插入图片描述

BiLSTM+CRF模型

在实现CRF后,我们设计一个双向LSTM+CRF的模型来进行命名实体识别任务的训练。模型结构如下:

nn.Embedding -> nn.LSTM -> nn.Dense -> CRF

其中LSTM提取序列特征,经过Dense层变换获得发射概率矩阵,最后送入CRF层。具体实现如下:

class BiLSTM_CRF(nn.Cell):
    def __init__(self, vocab_size, embedding_dim, hidden_dim, num_tags, padding_idx=0):
        super().__init__()
        self.embedding = nn.Embedding(vocab_size, embedding_dim, padding_idx=padding_idx)
        self.lstm = nn.LSTM(embedding_dim, hidden_dim // 2, bidirectional=True, batch_first=True)
        self.hidden2tag = nn.Dense(hidden_dim, num_tags, 'he_uniform')
        self.crf = CRF(num_tags, batch_first=True)
​
    def construct(self, inputs, seq_length, tags=None):
        embeds = self.embedding(inputs)
        outputs, _ = self.lstm(embeds, seq_length=seq_length)
        feats = self.hidden2tag(outputs)
​
        crf_outs = self.crf(feats, tags, seq_length)
        return crf_outs

完成模型设计后,我们生成两句例子和对应的标签,并构造词表和标签表。

embedding_dim = 16
hidden_dim = 32
​
training_data = [(
    "清 华 大 学 坐 落 于 首 都 北 京".split(),
    "B I I I O O O O O B I".split()
), (
    "重 庆 是 一 个 魔 幻 城 市".split(),
    "B I O O O O O O O".split()
)]
​
word_to_idx = {}
word_to_idx['<pad>'] = 0
for sentence, tags in training_data:
    for word in sentence:
        if word not in word_to_idx:
            word_to_idx[word] = len(word_to_idx)
​
tag_to_idx = {"B": 0, "I": 1, "O": 2}
len(word_to_idx)

接下来实例化模型,选择优化器并将模型和优化器送入Wrapper。

由于CRF层已经进行了NLLLoss的计算,因此不需要再设置Loss。

model = BiLSTM_CRF(len(word_to_idx), embedding_dim, hidden_dim, len(tag_to_idx))
optimizer = nn.SGD(model.trainable_params(), learning_rate=0.01, weight_decay=1e-4)
grad_fn = ms.value_and_grad(model, None, optimizer.parameters)
​
def train_step(data, seq_length, label):
    loss, grads = grad_fn(data, seq_length, label)
    optimizer(grads)
    return loss

在这里插入图片描述

将生成的数据打包成Batch,按照序列最大长度,对长度不足的序列进行填充,分别返回输入序列、输出标签和序列长度构成的Tensor。

def prepare_sequence(seqs, word_to_idx, tag_to_idx):
    seq_outputs, label_outputs, seq_length = [], [], []
    max_len = max([len(i[0]) for i in seqs])
​
    for seq, tag in seqs:
        seq_length.append(len(seq))
        idxs = [word_to_idx[w] for w in seq]
        labels = [tag_to_idx[t] for t in tag]
        idxs.extend([word_to_idx['<pad>'] for i in range(max_len - len(seq))])
        labels.extend([tag_to_idx['O'] for i in range(max_len - len(seq))])
        seq_outputs.append(idxs)
        label_outputs.append(labels)
​
    return ms.Tensor(seq_outputs, ms.int64), \
            ms.Tensor(label_outputs, ms.int64), \
            ms.Tensor(seq_length, ms.int64)
data, label, seq_length = prepare_sequence(training_data, word_to_idx, tag_to_idx)
data.shape, label.shape, seq_length.shape
((2, 11), (2, 11), (2,))

对模型进行预编译后,训练500个step。

训练流程可视化依赖tqdm库,可使用pip install tqdm命令安装。

from tqdm import tqdm
​
steps = 500
with tqdm(total=steps) as t:
    for i in range(steps):
        loss = train_step(data, seq_length, label)
        t.set_postfix(loss=loss)
        t.update(1)

100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 500/500 [00:23<00:00, 21.13it/s, loss=0.3487625]

最后我们来观察训练500个step后的模型效果,首先使用模型预测可能的路径得分以及候选序列。

score, history = model(data, seq_length)
score
Tensor(shape=[2, 3], dtype=Float32, value=
[[ 3.15928860e+01,  3.63119812e+01,  3.17248516e+01],
 [ 2.81416149e+01,  2.61749763e+01,  3.24760780e+01]])

使用后处理函数进行预测得分的后处理。

predict = post_decode(score, history, seq_length)
predict
[[0, 1, 1, 1, 2, 2, 2, 2, 2, 0, 1], [0, 1, 2, 2, 2, 2, 2, 2, 2]]

最后将预测的index序列转换为标签序列,打印输出结果,查看效果。

idx_to_tag = {idx: tag for tag, idx in tag_to_idx.items()}
​
def sequence_to_tag(sequences, idx_to_tag):
    outputs = []
    for seq in sequences:
        outputs.append([idx_to_tag[i] for i in seq])
    return outputs
sequence_to_tag(predict, idx_to_tag)
[['B', 'I', 'I', 'I', 'O', 'O', 'O', 'O', 'O', 'B', 'I'],
 ['B', 'I', 'O', 'O', 'O', 'O', 'O', 'O', 'O']]

在这里插入图片描述

  • 8
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是使用TensorFlow实现基于LSTM-CRF序列标注的模型代码示例: ``` import tensorflow as tf from tensorflow.contrib.crf import crf_log_likelihood, viterbi_decode class BiLSTM_CRF(object): def __init__(self, num_chars, num_tags, embedding_dim, hidden_dim, batch_size=64, learning_rate=0.001): self.num_chars = num_chars self.num_tags = num_tags self.embedding_dim = embedding_dim self.hidden_dim = hidden_dim self.batch_size = batch_size self.learning_rate = learning_rate self.inputs = tf.placeholder(tf.int32, shape=[None, None], name='inputs') self.targets = tf.placeholder(tf.int32, shape=[None, None], name='targets') self.seq_length = tf.placeholder(tf.int32, shape=[None], name='seq_length') self._build_model() self._build_loss() self._build_optimizer() self.sess = tf.Session() self.sess.run(tf.global_variables_initializer()) def _build_model(self): # 定义词嵌入层 self.word_embeddings = tf.Variable(tf.random_uniform([self.num_chars, self.embedding_dim], -1.0, 1.0), name='word_embeddings') embeddings = tf.nn.embedding_lookup(self.word_embeddings, self.inputs) # 定义双向LSTM层 cell_fw = tf.contrib.rnn.LSTMCell(self.hidden_dim) cell_bw = tf.contrib.rnn.LSTMCell(self.hidden_dim) (output_fw, output_bw), _ = tf.nn.bidirectional_dynamic_rnn(cell_fw, cell_bw, embeddings, dtype=tf.float32, sequence_length=self.seq_length) output = tf.concat([output_fw, output_bw], axis=-1) # 定义全连接层 W = tf.get_variable('W', shape=[2*self.hidden_dim, self.num_tags], initializer=tf.contrib.layers.xavier_initializer()) b = tf.get_variable('b', shape=[self.num_tags], initializer=tf.zeros_initializer()) output = tf.reshape(output, [-1, 2*self.hidden_dim]) logits = tf.matmul(output, W) + b self.logits = tf.reshape(logits, [-1, tf.shape(self.inputs)[1], self.num_tags]) # 定义CRF层 self.transition_params = tf.get_variable('transition_params', shape=[self.num_tags, self.num_tags], initializer=tf.contrib.layers.xavier_initializer()) def _build_loss(self): log_likelihood, self.transition_params = crf_log_likelihood(inputs=self.logits, tag_indices=self.targets, sequence_lengths=self.seq_length, transition_params=self.transition_params) self.loss = tf.reduce_mean(-log_likelihood) def _build_optimizer(self): self.optimizer = tf.train.AdamOptimizer(self.learning_rate).minimize(self.loss) def train(self, inputs, targets, seq_length): feed_dict = {self.inputs: inputs, self.targets: targets, self.seq_length: seq_length} _, loss = self.sess.run([self.optimizer, self.loss], feed_dict=feed_dict) return loss def predict(self, inputs, seq_length): feed_dict = {self.inputs: inputs, self.seq_length: seq_length} logits, transition_params = self.sess.run([self.logits, self.transition_params], feed_dict=feed_dict) viterbi_sequences = [] for logit, length in zip(logits, seq_length): logit = logit[:length] viterbi_seq, _ = viterbi_decode(logit, transition_params) viterbi_sequences.append(viterbi_seq) return viterbi_sequences ``` 这里实现了一个包含词嵌入、双向LSTM、全连接和CRF层的模型,并使用Adam优化器进行训练。在训练过程中,需要传入输入序列、目标序列序列长度;在预测过程中,只需要传入输入序列序列长度即可得到预测的标注序列
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值