论文来自2023Findings,原文:End-to-end Aspect-based Sentiment Analysis with Combinatory Categorial Grammar - ACL Anthology
摘要:(来自原文)
现存问题:之前的方法使用advanced text encoders来提取context information并使用syntactic information,例如 输入句子的dependency structure。但是,由于dependency structure并不用来提供文本semantic information,所以需要改进。
本文方法:考虑到combinatory categorial grammar(CCG)可以表达句子的both syntactic and semantic information,本文使用CCG supertags来解决EASA(End-to-end Aspect Sentiment Analysis)问题。
提出一个CCG supertag解码过程,以此来学习CCG supertag携带的syntactic and semantic information,并使用该信息来引导对input words的attention,从而识别EASA的重要contextual information。
此外,利用gate mechanism将weighted contextual information加入到EASA主体的解码过程中。
我的关注点
1.Combinatory Categorial Grammar (CCG)
CCG介绍:
jGCCCCG超级标记_自然语言处理CS的博客-CSDN博客
CCG提供了一个系统严谨的方式来分析句子的syntactic和semantic结构,是建立准确和高效的NLP系统的关键。它还允许syntactic和semantic信息的整合,这对语言理解至关重要。
相比较常用的phrase structure grammar和dependency grammar,CCG的优势在于:
1.CCG是词汇化的,words和phrases的syntactic类别不仅仅由他们的syntactic function决定,也由他们本身的意义和用法决定。
2.CCG可以通过组合规则处理长距离依赖,特别是使用type raising时,
type raising:改变单词或短语的syntactic categories以表示句子的复杂syntactic结构的过程,从而为EASA捕获重要的上下文信息。
2.Joint-label Approaches for EASA
joint label包括两部分:
1.关于aspect term边界的BIO标签
2.这个aspect的sentiment polarity(positive, negative, neutral)
3.The Approach
作者在介绍方法时,首先明确了每个部分及其功能,让人一目了然,值得在写作时借鉴:
方法包含四部分:
1.预测EASA的backbone model
2.学习syntactic和semantic information的supertag decoding process
3.权衡不同上下文信息的attention module
4.平衡backbone model和attention module的gate mechanism
Loss训练包括两部分:预测的joint labels和gold standard;预测的supertags和从CCG supertagger 获得的silver standard。
4.Super Decoding
最直接的方法:使用现成的CCG supertagger给输入的句子打标签,之后,通过将supertags作为额外的word-level特征,和输入的单词相连接。
缺点是:效率不高,特别是要处理的数据相对较大时。
本文的方法:使用额外的CCG supertag decoding过程来学习CCG information,之后,使用CCG information,通过一个attention mechanism over all input words来指导EASA。
5.Super-driven Attentions
这个Attention的名字起的很不错,可以借鉴
6.The Gate Mechanism
原因:在不同的上下文中,获得的contextual information对于EASA任务的贡献可能不同,因此使用gate module权衡在不同上下文中的information。因此,为了使用semantic information提高EASA的能力,本文提出了一个gate module将这些information聚合到backbone NER model中。
reset gate:
并使用以下公式来平衡backbone model和attention module之间的信息。