论文阅读总结——Chinese NER Using Lattice LSTM

论文阅读总结——Chinese NER Using Lattice LSTM

这是本人的第一篇博客,经验尚浅,还望多多指教

博主最近在做中文命名实体识别(以下简称 NER),期间阅读了相关文献,在此对一些文章进行介绍和总结,加深印象,加深理解。

本文讲述今年发表在 ACL 的文章《Chinese NER Using Lattice LSTM》,作者是来自新加坡科技设计大学的 Yue Zhang 和 Jie Yang。


进入正题之前,先说明一下 NER 的研究现状。方法上大体分为两类:基于统计机器学习、基于深度学习。近年来,硬件的飞速发展使得计算机的计算能力大幅度提升,再加上互联网普及产生的海量数据的支持,深度学习得以走出低谷,迎来了新一轮热潮。深度学习以神经网络为基本结构,因其具有从大量无标注语料中获取潜在语义信息的能力,使得研究者不必花时间去了解特定领域和语言学知识,也无需人工提取大量特征,有效地避免了人工特征工程的费时费力。尽管深度学习在文字处理方面的提升效果不如在视频、图像和语音那样显著,但是越来越多的研究者在 NLP 领域提出了各种各样的模型结构,使用 Deep Learning 处理 NER 问题正逐渐成为趋势。

目前英文NER效果最佳的模型是 LSTM-CRF,对于中文 NER,也可以使用这种模型。不过,中文文本不同于英文文本,需要预先对其进行分词(基于字的方法),尽管分词工具有很多(中科院 ICTCLAS、哈工大语言云、Python的 jieba 和 SnowNLP 等),但是分词效果不太可能是完美的。通俗来说,NER就是通过序列标注实体边界和实体类别进行预测,从而识别和提取出相应的命名实体。所以,一旦出现分词错误,就会直接影响实体边界的预测,导致识别错误,这在开放领域是很严重的问题。

为了

  • 20
    点赞
  • 35
    收藏
    觉得还不错? 一键收藏
  • 19
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 19
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值