论文笔记:An Improved Neural Baseline for Temporal Relation Extraction

An Improved Neural Baseline for Temporal Relation Extraction

解决的问题

时间关系识别,通常指在提取出文本中系列事件词的情况下,判断事件两两之间的时间关系(通常包括,before、after…)

难点及贡献

时间关系的识别任务是一个非常具有挑战性的任务,受制于样本标注的困难,神经网络等方法一直未能被广泛利用或者带来的性能改善也差强人意。

  1. 本文利用神经网络(主要是LSTM)的方式带来了10%的准确度提升。
  2. 尝试了不同种类的词向量:w2v, glove, fastext, EMLO, bert
  3. 引入一些时间常识(例如,死亡发生在爆炸之后)

主要内容

总体布局:作者直接采用文本对应的词向量序列作为LSTM模型的输入,并且后接全连接做分类,并且使用整数线性规划的方式保证时间关系的传递性约束(常用)。

局部重点

  1. 事件位置:作者比较了两种方式
  • 使用LSTM对应位置的隐藏层状态作为位置标示
    在这里插入图片描述

  • 在每个事件词前后添加上XML标记:< e> </ e>(关系抽取中做位置指示)
    在这里插入图片描述

  1. 常识编码:所谓的常识就是指在没有上下文的情况下我们也能够去判断一些事件对之间的时间关系。例如爆炸在死亡之间,安排在出席之前等(这些常识知识往往是通过模板从大规模的语料中提取出来的)。
    TEMPROB(也是他自己搞出来的东东)就是这样产生的一个知识库,它包含观察到的元组频率作为事件对(e1,e2)具有关系r的概率(e1,e2,r)。但是该知识库有一个缺陷,它只是一个简单的计数模型,对于一些罕见的事件对不太可靠。例如:(ambush, die)和(attack,die),前者的频率较为罕见,对应的关系概率也就不太可靠。
    但是作者观测到,ambush实际上在语义上与attack相近,那么(attack, die)的统计值是否能够作为(ambush, die)的一个辅助信号呢?
  • CSE(common sense encoder): 作者基于上述idea通过孪生神经网络编码知识库中的常识性知识,该网络可以通过每个动词的嵌入结果来泛化到一些看不见的元组。
    在这里插入图片描述
    孪生网络在知识库TEMPROB上训练得到,并且在LSTM模型训练阶段固定,可以为每一对事件的关系预测提供一个辅助信号。
    具体实现未讲(暂记,可跳过):孪生网络常用来考量两个输入之间的相似程度,即两个输入目标,输出一个相似程度值或者标签。例如:(ambush, die),(attack, die),两个元组中的动词分别作为输入,若网络得知二者在语义上意思相近,那么网络会给予预测:元组(ambush, die)之间关系与(attack, die)之间的关系(before,已知)相同,较大的肯定。(相关论文还未阅读,纯属想象)
    在这里插入图片描述

实验结果

如图:

  • 在事件位置的处理上 直接拼接的方式更优(暂记:bert和EMLO在准确率和F1值上对于二者并不敏感,而另外三类的变化更加明显)

  • 常识知识的引入明显带来有效的提升
    在这里插入图片描述
    指标:
    在这里插入图片描述

  • acc:准确率…

  • F1: 这边查准和查全的计算都没有考虑None标签,作者意思这是关系抽取任务的惯用求值方式。
    在这里插入图片描述

  • Faware:一个专门用于衡量时间关系识别模型能力的指标(详情转TempEval3 workshop)

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值