bilstmcrf词性标注_深度学习--biLSTM_CRF 命名实体识别

本文介绍了如何使用biLSTM_CRF模型进行中文词性标注和命名实体识别。通过结合biLSTM和CRF的优势,解决biLSTM无法捕捉标签间关系的问题。在Tensorflow中实现模型,包括数据预处理、模型构建、训练与测试,最终展示模型在验证集上的良好效果。
摘要由CSDN通过智能技术生成

前文

中文分词、词性标注、命名实体识别是自然语言理解中,基础性的工作,同时也是非常重要的工作。在很多NLP的项目中,工作开始之前都要经过这三者中的一到多项工作的处理。在深度学习中,有一种模型可以同时胜任这三种工作,而且效果还很不错--那就是biLSTM_CRF。

biLSTM,指的是双向LSTM;CRF指的是条件随机场。

biLSTM词性标注本文是以字为单位进行处理。从下往上看,w0,w1...表示句子里面的字,经过biLSTM处理,输出每个字对应每个标签的分数,我们将最大数值表示对该字预测的标签。既然,biLSTM已经能够进行满足词性标注,那为什么还要再最后加上CRF层呢?

biLSTM词性标注

从这幅图中,可以看出,预测结果明显是错的,那为什么会出现这种错误呢,因为biLSTM只能够预测文本序列与标签的关系,而不能预测标签与标签之间的关系,标签之间的相互关系就是CRF中的转移矩阵。

biLSTM_CRF词性标注这就是完整的biLSTM_CRF的模型图,文本序列经过biLSTM模型处理,输出结果传入CRF层,最后输出预测结果。

下面,进入正题,biLSTM_CRF模型在tensorflow中的实现。

运行环境

python 3.6

tensorflow 1.2

本文GITHUB 欢迎Star和Fork。

使用同样方法,构造的中文分词。中文分词GITHUB

正文

1.数据预处理

2.模型构建

3.模型训练与测试

4.模型验证

5.总结

1.数据预处理

首先是将预测数据进行处理,转成模型能够识别的数字。

数据原格式

数据是以列形式存储,截图翻转了一下。

我从训练文本中,抽取频数在前5000的字,实际只抽取到了4830左右个字。加入'','','',分别表示填充字符,未知字符,数字字符。一起存入字典。

字典标签同样也有对应的字典。

# 将tag转换成数字

tag2label = {"O": 0, "B-PER": 1, "I-PER": 2, "B-LOC": 3, "I-LOC": 4, "B-ORG": 5, "I-ORG": 6}

依据字典与标签字典,将文字与标签分别转成数字。第一行是文本,第二行是标签。

文本与标签

下一步是生成batch的操作。

生成batch后,需要对batch内句子padding到统一的长度,并计算每句的真实长度。

2.模型构建

采用双向LSTM对序列进行处理,将输出结果进行拼接。输入shape[batch,seq_Length,hidden_dim],输出shape[batch,seq_length,2*hidden_dim]。

with tf.name_scope('biLSTM'):

cell_fw = tf.nn.rnn_cell.LSTMCell(pm.hidden_dim)

cell_bw = tf.nn.rnn_cell.LSTMCell(pm.hidden_dim)

outputs, outstates = tf.nn.bidirectional_dynamic_rnn(cell_fw=cell_fw, cell_bw=cell_bw,inputs=self.embedding,

sequence_length=self.seq_length, dtype=tf.float32)

outputs = tf.concat(outputs, 2)#将双向RNN的结果进行拼接

#outputs三维张量,[batchsize,seq_length,2*hidden_dim]

我们从本文的第一幅图中,可以看出,整个biLSTM完整的输出格式是[batch,seq_length,num_tag]。num_tag是标签的数量,本实验中是标签数量是7。所以我们需要一个全连接层,将输出格式处理一下。

with tf.name_scope('output'):

s = tf.shape(outputs)

output = tf.reshape(outputs, [-1, 2*pm.hidden_dim])

output = tf.layers.dense(output, pm.num_tags)

output = tf.contrib.layers.dropout(output, pm.keep_pro)

self.logits = tf.reshape(output, [-1, s[1], pm.num_tags])

self.logits就是需要输入CRF层中的数据。代码的第三行,对output的变形,表示将[batch,seq_length,2hidden_dim]变成[batchseq_length,2*hidden_dim],最后处理时再变形为[batch,seq_length,num_tag]。

下面就是CRF层的处理:

with tf.name_scope('crf'):

log_likelihood, self.transition_params = crf_log_likelihood(inputs=self.logits, tag_indices=self.input_y, sequence_lengths=self.seq_length)

# log_likelihood是对数似然函数,transition_params是转移概率矩阵

#crf_log_likelihood{inputs:[batch_size,max_seq_length,num_tags],

#tag_indices:[batchsize,max_seq_length],

#sequence_lengths:[real_seq_length]

#transition_params: A [num_tags, num_tags] transition matrix

#log_likelihood: A scalar containing the log-likelihood of the given sequence of tag indices.

这一步,是调用from tensorflow.contrib.crf import crf_log_likelihood函数,求最大似然函数,以及求转移矩阵。最大似然函数前加上"-",可以用梯度下降法求最小值;

with tf.name_scope('loss'):

self.loss = tf.reduce_mean(-log_likelihood) #最大似然取负,使用梯度下降

转移矩阵可以帮助维特比算法来求解最优标注序列。

def predict(self, sess, seqs):

seq_pad, seq_length = process_seq(seqs)

logits, transition_params = sess.run([self.logits, self.transition_params], feed_dict={self.input_x: seq_pad,

self.seq_length: seq_length,

self.keep_pro: 1.0})

label_ = []

for logit, length in zip(logits, seq_length):

#logit 每个子句的输出值,length子句的真实长度,logit[:length]的真实输出值

# 调用维特比算法求最优标注序列

viterbi_seq, _ = viterbi_decode(logit[:length], transition_params)

label_.append(viterbi_seq)

return label_

3.模型训练与测试

训练时,共进行12次迭代,每迭代4次,将训练得到的结果,保存到checkpoints;loss的情况,保留到tensorboard中;每100个batch,输出此时的训练结果与测试结果。

模型训练

模型的loss由最初在训练集54.93降到2.29,在测试集上由47.45降到1.73。我们看下,保存的模型在验证集上的效果。

4.模型验证

我从1998年的人民网的新闻素材中,随机抽取了几条语句。

模型验证

ORG表示组织名词,LOC表示地理名词,PER表示人名。从验证结果上看,模型在命名实体识别上,效果还可以。

5.总结

模型训练数据从github上获取的,在训练时使用未训练的字向量,不知道使用预训练字向量是否可以提高准确率。受限于电脑的性能,训练数据仅使用50000条;提高机器性能,加大训练数据的量,准确性应该可以进一步提高。写这篇博客,主要是介绍实验过程,希望能够给需要的人带来帮助。

参考

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值