aspect-polarity co-extraction小记录

aspect-polarity co-extraction是将目标实体识别与情感极性分类两个任务结合,目前对这个任务的研究通常都是转换为序列标记问题,具体有三种不同的模型pipeline model, joint model, collapsed
model。pipeline的解决办法是先搭建一个模型提取实体,再用另一模型判断极性,两个任务模型相互独立, collapsed是将两种标注任务结合,一起判断,joint是设置两个相互间交互的模型来进行标注任务,分别输出各自标签体系。
在这里插入图片描述

E2E-TBSA:《A unified model for opinion target extraction and target sentiment prediction》

首先提出端到端的方式解决目标实体提取和极性分类两个子任务,同时采用统一标记方案即collapsed方法。框架如下
在这里插入图片描述

图中包含两个堆叠的递归神经网络,上层(蓝色虚线框)预测统一的标签,以产生基于主要目标的情感分析的最终输出结果;下层网络又有两层lstm堆叠而成,一层捕捉语句上下文信息,一层捕捉目标实体信息,框架设计得比较简单明了,但是比较粗糙,后有许多论文证明大多数情况下collapsed效果没有joint好

DOER:《DOER: dual cross-shared RNN for aspect term-polarity co-extraction》
在这里插入图片描述
在这里插入图片描述

joint方式,提出了一种新的双交叉共享RNN框架(DOER)来生成给定句子的所有方面术语极性对。DOER主要包括一个双递归神经网络(RNN)和一个交叉共享单元(CSU)。CSU是实现TE和ASC之间的交互。还提出了一种称为剩余选通单元(REU)的额外RNN单元,以提高纵横项极性共提取的性能。感觉模型设计的有点过于复杂了…

SPAN:《Open-domain targeted sen-timent analysis via span-based extraction and classi-fication.》

joint方式并且引入目标跨度保证实体极性一致性,详解https://blog.csdn.net/sydney__/article/details/119489041?spm=1001.2014.3001.5501

BERT-E2E-ABSA:《Exploiting BERT for end-to-end aspect-based sentiment analysis》
在这里插入图片描述

就是单纯地将Bert引进这个任务研究,从文中实验数据可以看到就简单的引入效果就有较明显的提升(bert大佬)

DREGCN:《A Dependency Syntactic Knowledge Augmented Interactive Architecture for End-to-End Aspect-based Sentiment Analysis》

文中设计了一种依赖句法知识增强的交互式体系结构,该体系结构具有多任务学习功能,利用设计良好的依赖关系嵌入图卷积网络(DREGCN),充分利用句法知识。此外设计了一个简单而有效的消息传递机制,以确保模型在多任务学习框架中从多个相关任务中学习

TAS-BERT :《Target-aspect-sentiment
joint detection for aspect-based sentiment analysis》
在这里插入图片描述

还是一个借助bert的模型,由五个组件组成,包括一个BERT编码器、全连接层、一个用于“是/否”二进制分类的softmax解码器,以及一个用于序列标记的条件随机场(CRF)解码器或softmax解码器

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值