NLP
文章平均质量分 91
云霄6166
这个作者很懒,什么都没留下…
展开
-
注意力机制与Transformer
Attention机制可以描述为将一个query和一组key-value对映射到一个输出,其中query,keys,values和输出均是向量。输出是values的加权求和,其中每个value的权重 通过query与相应key的兼容函数来计算。原创 2022-12-01 14:01:17 · 1368 阅读 · 0 评论 -
SSEGCN
基于方面的情绪分析(ABSA)旨在预测句子中特定方面的情绪极性。近年来,基于依赖树的图神经网络传递了丰富的结构信息,被证明是ABSA的实用价值。然而,如何有效地利用依赖树中的语义和语法结构信息仍然是一个具有挑战性的研究问题。在本文中,我们提出了一种新的语义增强图卷积网络(SSEGCN)模型。具体地说,我们提出了一种结合自我注意的方面感知注意机制来获得句子的注意得分矩阵,该机制不仅可以学习与方面相关的语义关联,还可以学习句子的全局语义。为了获得全面的句法结构信息,我们根据单词间不同的句法距离构造了句子的语法掩原创 2022-11-29 20:56:04 · 1056 阅读 · 0 评论 -
Bert-P/HSum
基于方面的情绪分析(ABSA)解决了从消费者产品评论等固执己见的数据中提取情绪及其目标的问题。分析复习中使用的语言是一项困难的任务,需要对语言有深入的理解。近年来,BERT等深度语言模型在这方面取得了很大的进展。在这项工作中,我们提出了两个简单的模块,即并行聚合和分层聚合,在BERT之上用于两个主要的ABSA任务,即方面提取(AE)和方面情绪分类(ASC)。通过所提出的模块,我们证明了BERT体系结构的中间层可以用来提高模型的性能。原创 2022-11-29 12:40:30 · 512 阅读 · 0 评论 -
LSTM网络中各层解读
基于情感分析任务的深度学习LSTM网络各层解读转载 2022-07-20 16:31:33 · 8067 阅读 · 2 评论