第一遍
标题
To be Closer: Learning to Link up Aspects with Opinions
作者
摘要
- 依赖解析树有助于发现基于方面的情感分析中的意见词。(aspect-based sentiment analysis, ABSA),但是从off-the-shelf的解析依赖器获得的树是静态的,在ABSA中可能是次优的。因为句法树的设计不是为了捕捉意见词和方面词之间的相互作用。
- 本文中,通过缩短aspect和对应的意见词之间的距离,学习一个aspect-centric的树。在模型学习过程中,允许树状结构自适应地关联aspect和意见词,能够更好的识别ABSA中的极性。
- 结果:在五个aspect-based情感数据集上,本文模型明显优于最近的强基线;在SemEval Restaurant 14 数据集上,aspect和意见词之间的平均距离缩短了19%。
结论
- 通过定性和定量分析,该模型加入了根约束,提高了aspect词变成句子的根的可能性。
- 在SemEval Restaurant 14 数据集上,缩短了aspect词和观点词之间的平均距离19%。
- 未来可能用于三重态提取(aspect triplet extraction)
介绍
- ABSA判断句子中对特定目标的情感极性,例如:“The battery life of this laptop is very long, but the price is too high”,aspect词battery life是正向的,aspect词price是负向的。
- 之前的工作,使用注意力机制在aspect词和上下文词之间建模,但是这种方法会过多关注出现频率较高的词,忽视低频的词。
- 最近的工作发现,语法树能够帮助识别aspect词相关的情感特征,但是存在两个问题:
- 从现成的依赖解析器获得的树是静态的,因此不能自适应地模拟多个aspect词和意见词之间的复杂关系。
- 不准确的解析树可能会导致错误在pipeline中向下游传播
- 本文是针对aspect词为root定制生成语法树(ACLT, Aspect-Centric Latent Trees),通过注意力机制和MTT实现。加入一个软约束,通过MTT激励aspect词作为语法树的根节点。
- 本文贡献点:
- 通过ACLT来连接aspect词和观点词
- ACLT学习的解析树更利于aspect词和观点词联系起来
第二遍
模型
模型框架
整体流程:
- 通过句子编码器(BERT)获取上下文表示
- 使用一个树偏置器,产生所有潜在树的分布(将树结构作为一个潜变量)
- 一旦获取到潜在树分布后,采用根求精过程,获得aspect-centric潜在树
- 用一个图或者树编码潜在树,利用树编码器的结构化表示情感分类
2.1 句子编码器
- 这里采用BERT作为句子编码器
- 输入: x = ( [ C L S ] w 1 , . . . , w n [ S E P ] w i , . . . , w j [ S E P ] ) x = ([CLS] w_1,...,w_n [SEP] w_i,...,w_j [SEP]) x=([CLS]w1,...,wn[SEP]wi,...,wj[SEP]),包括句子和方面词
- 输出:H = BERT(x) , H = [ h 1 , . . , h n ] H = [h_1,..,h_n] H=[h1,..,hn]
2.2 Aspect-centric Tree Inducer
-
本文想解决,语法树根节点和方面词不一致问题
-
通过前馈神经网络(FNN)计算两个节点( h i ∈ H h_i \in H hi∈H)边的分数
公式: e i j = ( t a n h ( W p h i ) ) T W b ( t a n h ( W c h j ) ) e_{ij} = (\mathbf{tanh}(W_ph_i))^TW_b(\mathbf{tanh}(W_ch_j)) eij=(tanh(Wphi))TWb(tanh(Wchj))
W p , W c ∈ R d × d W_p,W_c \in \mathbb{R}^{d \times d} Wp,Wc∈Rd×d分别表示两个FNN
W b W_b Wb表示Bilinear的权重
e i j ∈ R d × d e_{ij} \in \mathbb{R}^{d \times d} eij∈Rd×d ,可以看作一个加权的邻接矩阵,其中每个节点对应句子中的一个词。
感觉这里维度有问题
-
计算根节点分数 r i r_i ri,表示作为根节点的非非标准化(可能没有归一化)概率
r i = W r h i r_i = W_rh_i ri=Wrh