Aspect-based Sentiment Analysis with Type-aware Graph Convolutional Networks and Layer Ensemble 阅读笔记

1.Introducton

本文是2021年会议NAACL上的一篇文章。在这篇文章中,作者提出了一种具有多层结构的类型感知图卷积神经网络模型(T-GCN)。

2.Model

2.1 Type-aware Graph Construction

这一部分主要介绍如何构建类型感知图。我们知道,在以往的文章中,学者们更多的是关注词与词的依赖关系,从而忽略了词与词之间的关系类型。如果只是关注依赖关系,那么就无法判断词与词之间关联的重要性,从而会误导模型的“判断”。本文中作者通过三个步骤向我们介绍了关系类型图的构建。

首先:通过一些现有的工具包,从而获得依赖结果\left(x_{i}, x_{j}, r_{i, j}\right)

其次:作者使用了\mathbf{A}=\left\{a_{i, j}\right\}_{n \times n} 作为领接矩阵来存放x_{i}x_{j}的依赖关系,如果x_{i}x_{j}之间有依赖关系那么a_{i, j}的值为1,否则为0。用\mathbf{R}=\left\{r_{i, j}\right\}_{n \times n}来存放x_{i}x_{j}的依赖关系类型,每一种依赖关系都对应了不同的值。

最后:为了利用关系类型,作者利用了一个转变矩阵将r_{i, j}映射为\mathbf{e}_{i, j}^{r}

具体构造过程以及模型大概如下图所示。

2.2 T-GCN

模型的主要部分中,作者设置了一个L层的T-GCN,并且对于每一层中图的边,作者会根据它们对任务的贡献,进行加权。

首先,我们知道,对于x_{i}x_{j}之间的每一条边,我们已经得到了他们之间的关系类型对应的数值。于是,在这里作者将其与隐藏状态的值进行了连接。得到了\mathbf{s}_{i}^{(l)}=\mathbf{h}_{i}^{(l-1)} \oplus \mathbf{e}_{i, j}^{r}\mathbf{s}_{j}^{(l)}=\mathbf{h}_{j}^{(l-1)} \oplus \mathbf{e}_{i, j}^{r}

随后,作者将计算的值带入到了权重计算公式p_{i, j}^{(l)}=\frac{a_{i, j} \cdot \exp \left(\mathbf{s}_{i}^{(l)} \cdot \mathbf{s}_{j}^{(l)}\right)}{\sum_{j=1}^{n} a_{i, j} \cdot \exp \left(\mathbf{s}_{i}^{(l)} \cdot \mathbf{s}_{j}^{(l)}\right)},得到了权重p_{i, j}^{(l)}。之后通过一个可训练的矩阵\mathbf{W}_{R}^{(l)},将\mathbf{e}_{i, j}^{r}“融入”隐藏状态中\mathbf{h}_{j}^{(l-1)^{\prime}}=\mathbf{h}_{j}^{(l-1)}+\mathbf{W}_{R}^{(l)} \cdot \mathbf{e}_{i, j}^{r}

最后,作者将计算的权重还有隐藏状态的值带入到了图卷积公式中。\mathbf{h}_{i}^{(l)}=\sigma\left(\sum_{j=1}^{n} p_{i j}\left(\mathbf{W}^{(l)} \cdot \mathbf{h}_{j}^{(l-1)^{\prime}}+\mathbf{b}^{(l)}\right)\right)得到了下一层i的隐藏状态的值。

ps:这里的 x_{i}指的是当前需要计算隐藏状态的词的下标,x_{j}值得是这个句子中词的下标。

具体的模型运作过程如下图所示。

 

2.3 Attentive Layer Ensemble

在这里作者认为每一层的T-GCN都有他们独特的能力去编码上下文的信息。因此为了这种能力,作者提出了一种关注的层集成全面学习所以T-GCN层。(原文:we propose to comprehensively learn from all T-GCN layers with attentive layer ensemble.)

首先,作者将每一层的输出的隐藏状态的向量进行一个平均\mathbf{o}^{(l)}=\frac{1}{|\mathcal{A}|} \cdot \sum_{x_{k} \in \mathcal{A}} \mathbf{h}_{k}^{(l)},得到\mathbf{O}^{(l)}。随后通过一个加权平均得到最后的结果\mathbf{o}=\sum_{l=1}^{L} \delta^{(l)} \cdot \mathbf{o}^{(l)}

2.4 Encoding and Decoding with T-GCN

对于编码,作者是介绍了两种不同的编码的方式。

1.是将句子\mathcal{X}作为输入放到编码器中\mathbf{H}^{\mathcal{X}}=B E R T(\mathcal{X}),最后得到初始的隐藏向量。

2.是将句子-方面对作为输入放到编码器中\left[\mathbf{H}^{\mathcal{X}}, \mathbf{H}^{\mathcal{A}}\right]=B E R T(\mathcal{X}, \mathcal{A}),得到初始的隐藏向量。

对于解码,作者先将T-GCN的输出放入一个全连接层\mathbf{u}=\mathbf{W} \cdot \mathbf{o}+\mathbf{b},最后再对得到的结果做一个softmax得到最后的情感结果。

3.Experiments

实验结果:

模型比较:

消融实验:

 

4.Conclusion

在这篇文章中,作者提出了一种基于T-GCN的ABSA神经网络方法,其中输入图建立在输入句子的依赖树上。具体来说,图中的边是在输入句子的依赖关系和类型的基础上构造的;对于每个单词,作者使用注意来加权T-GCN中与之相关联的所有此类类型感知边缘;作者还应用注意层集成从不同的T-GCN层全面学习上下文信息。在六个广泛使用的英语基准数据集上的实验结果证明了我们的方法的有效性,在所有数据集上都取得了最先进的性能。进一步的分析表明,将类型信息纳入模型以及将注意力集成应用于多层次学习的有效性。

  • 2
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
情感分析是一种通过计算机程序对文本中的情绪进行分析的技术。方面的使用生成对比学习方法。生成对比学习是一种通过比较两个不同视角的数据来提高模型性能的方法。在这种情感分析中,我们可以使用生成方法来自动提取文本中的情感方面,并结合对比学习方法来提高模型的性能。通过这种方法,我们可以更准确地识别文本中不同方面的情感,并且能够更好地区分出正面和负面情绪。 在这个过程中,我们首先使用生成模型来自动提取文本中的情感方面,然后结合对比学习方法来进行训练,以提高模型对情感方面的识别能力。这种方法可以帮助我们更准确地理解文本中的情感内容,并且能够更好地适应不同类型文本的情感分析任务。 此外,我们还可以使用这种方法来进行情感方面的生成,并结合对比学习方法来训练模型,使得生成的情感方面能够更接近真实的情感内容。通过这种方法,我们可以生成更加准确和自然的情感内容,并且能够更好地适应不同类型的情感生成任务。 综上所述,generative aspect-based sentiment analysis with contrastive learning and exp的方法可以帮助我们更准确地识别和生成文本中的情感内容,并且能够更好地适应不同类型文本的情感分析和生成任务。这种方法在自然语言处理领域具有广阔的应用前景。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值