让人深思:句法真的重要吗?邱锡鹏组提出一种基于Aspect的情感分析的强大基线...

每天给你送来NLP技术干货!


论文:Does syntax matter? A strong baseline for Aspect-based Sentiment Analysis with RoBERTa  [ACL21]

单位:复旦大学、卡内基梅隆大学

链接:https://aclanthology.org/2021.naacl-main.146.pdf

提取摘要

基于方面的情感分析(Aspect-Based Sentiment Analysis (ABSA))任务大家应该已经很熟了,本文的实验基于此。

之前的大量工作都表明了融入句法信息能够提高ABSA的性能。但是最近的预训练模型也同样展现了强大的性能提升。

因此,一个问题油然而生:

  • 是否在预训练模型中大量的句法信息?

  • 单单使用预训练模型是否足够?

本文第一次同时比较了分别基于预训练模型和句法解析器生成的依存句法树在ABSA上的性能,结果显示:FT-RoBERTa (finetune RoBERTa)要好于通过句法解析器生成的句法结构信息。通过实验分析进一步发现 FT-RoBERTa 生成的句法树更加以情感词为导向,非常有利于ABSA任务。最终在实验上达到了SOTA或者近似SOTA的性能。

具体介绍

如何通过预训练模型生成句法树?

本文使用的是Perturbed Masking (港大和华为ACL20提出)来利用预训练模型生成句法树。大概流程就是:

为了计算token j对于token i的影响度,首先mask掉token i,此时获取mask的词表示:;然后mask掉token j,也会返回一个表示token i和j的词表示,那么j对于i的影响度公式计算为:

重复上述操作,会得到一个每一对token的影响度的矩阵,那么就可以通过这个矩阵获取句法树。

模型

本文采用的模型很简单,就是在Aspect上做MLP分类来finetune RoBERTa即可。

实验

不同的树结构在英语数据集上的性能比较

不同树结构在非英语数据集上的性能比较


FT-RoBERTa生成的树更加对Aspect友好

与SOTA们作对比

思考

所以说,真的不需要句法结构信息了吗?句法还重要吗?本文仅仅在ABSA上做了实验,其他任务呢?我个人倾向人为定义的句法结构肯定有缺陷,未来大一统是趋势,你们认为呢?各抒己见~


投稿或交流学习,备注:昵称-学校(公司)-方向,进入DL&NLP交流群。

方向有很多:机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等。

记得备注呦

整理不易,还望给个在看!
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值