sequence labeling笔记(一)

最近一直在做序列标注的工作,记录一下在工作中读的一些论文,今天记录这两篇,分别是《Morphosyntactic Tagging with a Meta-BiLSTM Model over Context Sensitive Token Encodings》和《Hierarchically-Refined Label Attention Network for Sequence Labeling》,分别来自Google和浙大。

Morphosyntactic Tagging with a Meta-BiLSTM Model over Context Sensitive Token Encodings

这篇文章基于字+词做pos tagging,但这里的做法和寻常的有些不一样,一般做法是将word做padding到和char一样长,然后concat扔到bilstm中去训练,最后接CRF得到每一个token的词性输出。这篇文章是分别基于char和word去训练一个model,各自进入一个bilstm,计算loss,char model和wordmodel的mlp输出,进入一个meta bilstm,最后再过一个mlp得到输出。

作者基于WSJ和UD的数据集,针对多种语言进行了词法、句法实验,并分析了这种model各个module对最后结果的影响,具体不赘述了。在我看来,这种对char和word分别循环建模,然后融合结果再过一层bilstm的做法,简单粗暴,用来做实验具有一定的意义,但如果要满足实际的线上使用,估计会慢成狗吧。


Hierarchically-Refined Label Attention Network for Sequence Labeling

这篇文章干的事这么一件事,提出了一个BiLSTM-LAN的架构,以往的序列标注都是在BiLSTM后面接一层CRF,得到token的label输出,但是这篇文章,是在BiLSTM层后面接一层注意力推断层,基于BiLSTM得到的隐态,计算推断得到的label,然后将隐态和得到的label融合,输入下一个类似结构中,继续推断,见下图:

同样实验也是在WSJ和UD上做的,但从论文给出的实验结果来看,确实提升有限,当然文章没有细看,有时间再推敲。

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值