《BiLSTM with Multi-Polarity Orthogonal Attention for Implicit Sentiment Analysis》论文阅读笔记

本文介绍了针对隐性情感分析的研究,提出了一种结合双向LSTM和多极性正交注意力机制的模型。通过这种模型,能够更好地捕捉情感极性差异,尤其在缺乏明显情感词汇的情况下。实验表明,模型在多个数据集上的表现优于传统方法,验证了其有效性和通用性。
摘要由CSDN通过智能技术生成

文章名:《BiLSTM with Multi-Polarity Orthogonal Attention for Implicit Sentiment Analysis》

作者 Jiyao Wei a,1, Jian Liaoa,1, Zhenfei Yanga, Suge Wanga,b,, Qiang Zhaoa

年份 2019

1 Introduction

目前文本情感分析多分析带有表现明显情感极性词语的文本,而隐性表达作者情感的文本分析相关研究很少。

2 Related Work

常用的注意机制可以根据注意的排列位置分为全局机制局部机制, 它们也可分为来源目标注意、自我注意和多头注意。 这些研究启发了作者引入情感关注,它为捕捉情感极性之间的特征差异嵌入了额外的信息。

3. BiLSTM with multi-polarity orthogonal attention model

3.1. Framework of the proposed model

 该模型包含6层:输入层、预训练层、BiLSTM层、多极注意层、fully connected层和输出层。

(1)Input layer

采用one-hot编码为每个词生成索引嵌入向量,(加粗字体表示词嵌入或者矩阵,|V|表示全集,下同)将索引嵌入喂入预处理。

(2)pretraining layer

预处理层分成静态层和动态层。

静态层生成共享查找表。 它采用预先训练的词嵌入资源作为初始化,编码更多的初始语义信息,其中de是词嵌入的维数。最后的词嵌入表示为Wt:。在动态层中,根据上下文信息动态编码词嵌入,能够更准确表达词信息,公式为

  • 0
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值