Attention-Based Bidirectional Long Short-Term Memory Networks for Relation Classification
概述
作者提出了一种基于注意力机制的双向LSTM框架用于关系抽取。方法的主要创新点引入了注意力机制。
神经网络框架
![1b63df7b337d64b0b64c1657d8c8d151.png](https://img-blog.csdnimg.cn/img_convert/1b63df7b337d64b0b64c1657d8c8d151.png)
框架非常简单,也是作者一直强调的。Embedding Layer、LSTM layer、Attention Layer。
Embedding Layer,跟通常的Embedding没有什么区别,首先使用训练好的word vector初始
化,然后在训练过程中微调。
LSTM Layer
文章中使用的是LSTM的变体,其与LSTM的区别如下图,思想是各个门也将上一个记忆单元考虑上。
![e4dd0ebf131fe3a7caaf04ae842aefeb.png](https://img-blog.csdnimg.cn/img_convert/e4dd0ebf131fe3a7caaf04ae842aefeb.png)
计算公式如下