EMNLP19@结合的语义依存关系与图卷积神经网络GCN的细粒度情感分析模型CDT

论文信息

论文全名
Aspect-Level Sentiment Analysis Via Convolution over Dependency Tree
发表会议:EMNLP2019
论文链接
https://www.aclweb.org/anthology/D19-1569.pdf


论文背景

这篇论文的研究领域是自然语言处理(NLP)中的aspect term sentiment classification(ATSC)领域。这篇论文的创新点是探索了将与神经网络相结合的语义依存关系树应用于表示学习的可能性,因为句子的语义关系可以显著缩短aspect与对应的sentiment之间的距离。比如句子” We ordered the special grilled branzino, that was so infused with bone, it was difficult to eat”的语义依存关系如下图所示:
在这里插入图片描述
从图中可以看出,aspect(”grilled branzino”)与情感词(“difficult”)在语义依存关系树上距离为1,显著缩短了aspect与sentiment word之间的距离。


论文方法:Convolution over Dependency Tree Model

首先给出模型图
在这里插入图片描述

  1. BiLSTM双向LSTM
    论文首先用BiLSTM来聚合单词的context信息。BiLSTM做法是正反两个方向的LSTM,最后将结果拼接起来。
  2. Graph Convolutional Network图卷积神经网络
    语义依存关系树可以看作是有n个结点的图,每个结点代表句子中的一个单词,图中每个边代表单词之间的语义依存关系。图网络中的结点用BiLSTM的结果初始化,之后用图卷积神经网络GCN来建模单词之间的依存关系。
    GCN可以有效地利用依存路径来在路径之间转换和传播信息,并且通过聚合邻居信息来更新结点embedding。通过这种机制,在k个GCN操作之后,结点就可以聚合到距离为k的结点信息。公式如下:
    在这里插入图片描述
    其中ci是正则化参数,等于1/di,其中di表示结点i的度(有多少条边与之相连)。
  3. 聚合器
    论文仅仅聚合aspect对应的vectors,使用平均聚合,最后使用全连接层来进行分类。
    在这里插入图片描述

实验设置

在这里插入图片描述
在这里插入图片描述


最后欢迎关注公众号NLP学习者,大家一起学习
在这里插入图片描述

  • 4
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
循环神经网络(RNN)是一种能够处理序列数据的神经网络,它在每个时间步上接受输入,并且还会接收来自前一个时间步的隐藏状态作为输入。然而,传统的 RNN 有一个问题,就是在处理长序列时,梯度消失或梯度爆炸的问题会导致模型无法有效地学习长期依赖。 为了解决这个问题,1997年,Hochreiter 和 Schmidhuber 提出了长短期记忆(LSTM)网络。LSTM 在 RNN 的基础上增加了三个门(输入门、输出门和遗忘门),这些门控制着信息的流动,使得 LSTM 能够更好地处理长期依赖。 随着深度学习的发展,LSTM 也在不断演进。一些改进的 LSTM 模型被提出,例如 Gated Recurrent Unit (GRU)、Recurrent Highway Networks (RHN) 等。这些模型在 LSTM 的基础上进一步增加了门或者引入了新的结构,可以更好地处理长序列数据。 参考文献: - Hochreiter, S., & Schmidhuber, J. (1997). Long short-term memory. Neural computation, 9(8), 1735-1780. - Cho, K., van Merrienboer, B., Gulcehre, C., Bahdanau, D., Bougares, F., Schwenk, H., & Bengio, Y. (2014, June). Learning phrase representations using RNN encoder-decoder for statistical machine translation. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP) (pp. 1724-1734). - Chung, J., Gulcehre, C., Cho, K., & Bengio, Y. (2014). Empirical evaluation of gated recurrent neural networks on sequence modeling. arXiv preprint arXiv:1412.3555. - Zilly, J. G., Srivastava, R. K., Koutník, J., & Schmidhuber, J. (2016). Recurrent highway networks. arXiv preprint arXiv:1607.03474.

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值