【每周NLP论文推荐】 NLP中命名实体识别从机器学习到深度学习的代表性研究

NER是自然语言处理中相对比较基础的任务,但却是非常重要的任务。在NLP中,大部分的任务都需要NER的能力,例如,聊天机器人中,需要NER来提取实体完成对用户输入的理解;在信息提取任务中,需要提取相应的实体,以完成对信息的抽取。

本篇介绍NER中常用的方法,从常用的机器学习方法到深度学习的方法。

作者&编辑 | 小Dream哥

1 早期的HMM

早期的一篇介绍HMM在NER中的应用,实验效果还可以。现在还有一些实体识别有用到HMM,读此文对于了解NER的发展有一定的好处。

640?wx_fmt=png

[1] Su, Jian , and J. Su . "Named entity recognition using an HMM-based chunk tagger." Proc Acl (2002):473-480.

2 主流NER架构LSTM +CRF 

随着深度学习的兴起,LSTM+CRF变成NER任务的主流方法,下面是一篇较为典型的介绍的LSTM+CRF进行NER任务的文章。

640?wx_fmt=png

[2] Huang, Zhiheng , W. Xu , and K. Yu . "Bidirectional LSTM-CRF Models for Sequence Tagging." Computer Science (2015).

3 讨论了CNN进行NER任务

在NLP任务中用CNN进行特征提取一直不是主流,这篇论文在NER中引入CNN。

640?wx_fmt=png

[3] Chiu, Jason P. C. , and E. Nichols . "Named Entity Recognition with Bidirectional LSTM-CNNs." Computer Science (2015).

4 空洞卷积在NER中的应用

因为传统CNN对长序列的输入特征提取能力偏弱,有研究者提出将Dilated Convolutions(空洞卷积)应用在NER中的想法。空洞卷积可以加大感受野,提高模型的训练和预测速度。

640?wx_fmt=png

[4] Emma Strubell Patrick Verga. Fast and Accurate Entity Recognition with Iterated Dilated Convolutions. 2017

5 Lattice LSTM

中文的NER与英文不太一样,中文NER问题很大程度上取决于分词的效果,比如实体边界和单词的边界在中文NER问题中经常是一样的。

所以在中文NER问题中,有时通常先对文本进行分词然后再预测序列中单词的类别。这样一来会导致一个问题,即在分词中造成的错误会影响到NER的结果。基于字向量的模型能够避免上述问题,但因为单纯采用字向量,导致拆开了很多并不应该拆开的词语,从而丢失了它们本身的内在信息。


此文提出一种用于中文NER的LSTM的格子模型,与传统使用字向量的模型相比,它提出的模型显式地利用了字序列之间的关系,能够很好的避免分词错误带来的影响。

640?wx_fmt=png

[5] Yue Zhang, Jie Yang. Chinese NER Using Lattice LSTM. 2018

6 实体识别与实体匹配

实体匹配是指将识别到的实体与知识库或者图谱中实体进行匹配与映射。因此实体匹配与识别是两个相关性非常高的任务,通过实体匹配,识别到的实体与现实中的概念相连接。这篇论文将实体匹配与识别统一起来训练,认为两个任务一起学习,能够提升两个任务的准确率。

640?wx_fmt=png

[6] Pedro Henrique Martins, Zita Marinho. Joint Learning of Named Entity Recognition and Entity Linking. 2019.

7 引入BERT及attention

引入了很多新的概念到命名实体识别中,例如BERT,Attention。感兴趣的同学可以看一看,会有蛮大的收益。

640?wx_fmt=png

[7] Anton A. Emelyanov, Ekaterina Artemova. Multilingual Named Entity Recognition Using Pretrained Embeddings, Attention Mechanism and NCRF. arXiv preprint  arXiv:1906.09978v1 2019

8 AutoNER

论文提出了一个无需人工标注就可以自动标记数据并训练NER的模型--AutoNER。实验表明,AutoNER训练的模型在3个数据集上均与有监督的benchmark相当。感兴趣的同学可以参考下。

640?wx_fmt=png

[8] Jingbo Shang, Liyuan Liu. Learning Named Entity Tagger using Domain-Specifific Dictionary. arXiv preprint  arXiv:1809.03599v1 2018

9 如何获取文章与交流

找到有三AI开源项目即可获取。

https://github.com/longpeng2008/yousan.ai

640?wx_fmt=png

文章细节众多,阅读交流都在有三AI-NLP知识星球中进行,感兴趣可以加入,扫描下图中的二维码即可。

640?wx_fmt=png

总结

以上就是关于NER的一些重要论文,下一期我们将推荐语义匹配相关的研究。

转载文章请后台联系

侵权必究

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

往期精选

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
基于深度学习命名实体识别Named Entity Recognition,简称NER)是一种自然语言处理任务,旨在从文本识别和分类出具有特定意义的实体,如人名、地名、组织机构名等。下面是基于深度学习的NER的一般步骤和常用方法: 1. 数据准备:收集和标注大量的文本数据,将需要识别的实体标注出来,形成训练集、验证集和测试集。 2. 特征提取:将文本数据转化为机器学习算法可以处理的特征表示。在深度学习,常用的特征表示方法是词嵌入(Word Embedding),如Word2Vec、GloVe等。 3. 模型选择:选择适合NER任务的深度学习模型。常用的模型包括循环神经网络(Recurrent Neural Network,RNN)、长短时记忆网络(Long Short-Term Memory,LSTM)、双向LSTM、卷积神经网络(Convolutional Neural Network,CNN)等。 4. 模型训练:使用标注好的训练集对选择的模型进行训练。训练过程,通过反向传播算法不断调整模型参数,使得模型能够更好地预测实体。 5. 模型评估:使用验证集对训练好的模型进行评估,计算模型在识别实体方面的准确率、召回率、F1值等指标。 6. 模型优化:根据评估结果,对模型进行调优,如调整模型结构、调整超参数等。 7. 模型测试:使用测试集对优化后的模型进行测试,评估模型在真实场景下的性能。 常用的基于深度学习的NER方法有BiLSTM-CRF、BERT、GPT等。这些方法在NER任务取得了较好的效果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

言有三

三人行必有AI

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值