旨在通过Arguments的信息来进一步提升ED任务的准确度,作者发现大家在构建ED模型是没有显式地利用Arguments的信息,所以提出可以通过supervised attention mechanisms来对这些信息加以利用。
下面为模型结构:
模型使用了当前输入单词,及其定长的前后共
n
n
n个单词,以及这些单词的命名实体类型共同组成模型的输入。图中绿色部分
w
w
w为单词的词向量表示,紫色部分
e
e
e为单词对应的命名实体表示,蓝色部分
w
‾
\overline{w}
w是将
w
w
w经过一次变换后的隐层表示。随后,基于 argument words应该比其它words获得更多的权重 这个目的来训练一个Attention Mechanism,把这个注意力模型乘上一个惩罚系数后加入到普通的ED模型中。