论文笔记|Bidirectional LSTM-CRF Models for Sequence Tagging

前言
这篇论文是关于NER的一片经典论文,由百度研究院2015年发表。论文来源

前两篇论文笔记与其说是笔记,更多地却像是在做翻译,最近才开始系统接触NER,便选择了较经典的一篇,基础向。

摘要

该论文提出了几种基于LSTM的序列标注模型:LSTM,BiLSTM,LSTM-CRF,BiLSTM-CRF。该工作首次将BiLSTM-CRF应用于NLP基准序列标注数据集。

正文

序列标注包括词性标注(POS)、词义组块(chunk)和命名实体识别(NER),是一个经典型的自然语言处理任务。
  传统的命名实体识别就是一种序列标注任务,每个字符输入对应一个标注,如下面这个例子就包含三个实体
在这里插入图片描述
整句则可以被标注为
在这里插入图片描述
其中,
PER:即person,人物
ORG:即organization,组织
LOC:即location,地点
MISC:即miscellaneous,杂项
B,I,E,O分别指示开始,中间,结束,其他

LSTM

由上面可以看到,每个输入字符对应一个标记输出,所以用普通的RNN就可以进行该任务,如图
在这里插入图片描述
同理LSTM,更善于捕获长期依赖
在这里插入图片描述
这里复习下LSTM,LSTM单元的内部结构如下,这里的是未展开的形式
在这里插入图片描述
对应的公式
在这里插入图片描述
可以看到图上有四个输入 x t x_t xt,其中一个产生新的候选值,三个输入对应三个门, i t , o t , f t i_t,o_t,f_t it,ot,ft分别对应输入门,输出门,遗忘门。
   c t c_t ct代表长期记忆,也是新的候选值。例如,由公式可知若 f t

  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值