方面级情感分析论文泛07:BERT Post-Training for Review Reading Comprehension and Aspect-based Sentiment Analysis

提示1:原文链接
提示2:代码链接


前言

  本篇博客主要是对《BERT Post-Training for Review Reading Comprehension and Aspect-based Sentiment Analysis》进行了泛读,并对其进行了简单地记录,以帮助大家快速了解此篇论文的要点。


一、论文信息

  • 论文名:《BERT Post-Training for Review Reading Comprehension and Aspect-based Sentiment Analysis》
  • 作者:Hu Xu, Bing Liu, Lei Shu, Philip S. Yu
  • 领域:ABSA
  • 关键词:BERT、Post-Training、Aspect-based Sentiment Analysis
  • 发表年份:2019
  • 会议/期刊名:NAACL

二、笔记要点

2.1 目前存在的问题

  目前的在线问答系统不能很好的回答用户问题

2.2 目前解决方法

  1、采用众包用户答案的方式,但是存在延迟不适合作为交互系统,并且仍然有很多没有答案;
  2、已有的采用完整评论给用户的方法不可取,因为用户阅读它非常的耗时;

2.3 本文方法和创新点

创新点:
  受机器阅读理解 (MRC) 最近在正式文档上取得成功的启发,本文探讨了将客户评论转化为可用于回答用户问题的大量知识来源的潜力。我们称这个问题为复习阅读理解 (RRC)。
方法:
  post-training

2.4 模型结构

  采用BERT进行的微调;
模型结构

2.5 实验结果

  本文基于基于方面的情感分析的流行基准构建了一个名为 ReviewRC 的 RRC 数据集,如下图所示:
ReviewRC
数据信息

2.5.2 算法对比

对比模型如下:
  DrQA
  DrQA+MRC
  For AE and ASC:
    DE-CNN
    MGAN
    BERT
    BERT-DK
    BERT-MRC
    BERT-PT
对比结果如下:

RRC
AE
ASC

2.6 总结和展望

  • 提出了复习阅读理解(RRC)的新问题。
  • 为了解决这个新问题,为 RRC 创建了一个带注释的数据集ReviewRC。
  • 提出了一种通用的训练后方法来改善 RRC、AE 和 ASC
  • 微调前的后训练方法是有效的。

总结

  以上就是本篇博客的全部内容了,希望对你有所帮助。

  • 2
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

梦想拯救世界_

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值