阅读笔记Syntax-Aware Aspect Level Sentiment Classification with Graph Attention Networks

阅读笔记Syntax-Aware Aspect Level Sentiment Classification with Graph Attention Networks

简介

这篇论文的研究领域是细粒度情感分类中的aspect term sentiment classification任务,这篇论文根据单词之间的依存关系构建图神经网络,之后使用图注意力网络与LSTM显示地捕捉与aspect相关的信息。

发表会议:EMNLP-IJCAI2019

论文地址:https://www.aclweb.org/anthology/D19-1549.pdf

文本表示

句子中的单词用Glove或bert初始化,之后用Manning发表在EMNLP2014上的” A fast and accurate dependency parser using neural networks.”来将句子转换为依存图。两个单词之间的边代表这两个单词是语义相关的。比如句子“delivery was early too.”的依存图为:
在这里插入图片描述
对于aspect “delivery”,模型可以将特征从距离为2的单词经过两次迭代之后传递到delivery。

Graph Attention Network(GAT)

GAT是GNN的一种变种,可以将一个aspect的语法上下文的特征传递到aspect。这篇论文的graph attention network使用的是multi-attention,就是将结点的维度分为K份,然后在K份上分别做attention,之后再将结果拼接起来。公式如下:
在这里插入图片描述
简写为:
在这里插入图片描述
总结:第L层的GAT操作相当于结合了aspect的L跳邻居的特征信息

Target-Dependent Graph Attention Network

为了显示利用target信息,论文使用LSTM来建模跨层的aspect信息,有文献证明这种方法可以消除噪音数据。具体做法是是用LSTM中的hidden隐含层来表示aspect target信息,在第0层的hidden只依赖于target周围的特征,而在L层,target的L跳邻居中与aspect相关的信息通过LSTM单元加入到其hidden层状态中。
给出之前的hidden状态与cell状态,论文首先用GAT得到一个临时状态表示作为LSTM的新观察值,之后用LSTM单元来更新hidden状态,总结一下,这篇论文的前向传播过程可以表示为:
在这里插入图片描述
总结:这里的LSTM相当于按照顺序输入距离aspect0跳、1跳、2跳…的信息,L次之后得到最终的aspect表示。

Final Classification

通过L层的TD-GAT网络,可以得到aspect target的最终表示,这里仅仅取出aspect的hidden状态,之后通过线性变换将隐含层状态变换到分类空间,最后通过softmax函数得到预测概率。


最后欢迎大家关注我的公众号NLP学习者
在这里插入图片描述

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值