![3d8e4c4821088f3c6699bc322f753c0f.png](https://i-blog.csdnimg.cn/blog_migrate/8bc3324a6cc232edc45caa17eadbfb74.jpeg)
论文:Attention Guided Graph Convolutional Networks for Relation Extraction
这篇文章将attention和GCN结合起来用于关系提取任务,不同于GAT(Graph Attention Network) 将attention用于计算边权重,影响information propagation。在这篇文章中attention将更大程度地渗透到GCN中。
其实这篇文章反复提到了“soft pruning”来选择和任务相关的子依赖结构(这里的依赖结构指的是依赖树),以一个完整的依赖树作为输入,而模型可以自动关注于对关系提取任务重要的子图结构。
我们先不管这个任务最终输出什么,但是我们需要直到在这篇文章中,图结构是根据句子中我词的依赖关系建立的,结点为词,边为依赖关系,可以参考下图:
![222faaf3604599bbf7550a383db4a2dd.png](https://i-blog.csdnimg.cn/blog_migrate/b9550caf1a3fa19fff38bb4c61d4277a.jpeg)
因而这里模型要学习的是node representation.