让人深思:句法真的重要吗?邱锡鹏组提出一种基于Aspect的情感分析的强大基线...

每天给你送来NLP技术干货!


论文:Does syntax matter? A strong baseline for Aspect-based Sentiment Analysis with RoBERTa  [ACL21]

单位:复旦大学、卡内基梅隆大学

链接:https://aclanthology.org/2021.naacl-main.146.pdf

b54af0b96a85eccc38fcb17de1be7034.png

提取摘要

基于方面的情感分析(Aspect-Based Sentiment Analysis (ABSA))任务大家应该已经很熟了,本文的实验基于此。

之前的大量工作都表明了融入句法信息能够提高ABSA的性能。但是最近的预训练模型也同样展现了强大的性能提升。

因此,一个问题油然而生:

  • 是否在预训练模型中大量的句法信息?

  • 单单使用预训练模型是否足够?

本文第一次同时比较了分别基于预训练模型和句法解析器生成的依存句法树在ABSA上的性能,结果显示:FT-RoBERTa (finetune RoBERTa)要好于通过句法解析器生成的句法结构信息。通过实验分析进一步发现 FT-RoBERTa 生成的句法树更加以情感词为导向,非常有利于ABSA任务。最终在实验上达到了SOTA或者近似SOTA的性能。

具体介绍

如何通过预训练模型生成句法树?

本文使用的是Perturbed Masking (港大和华为ACL20提出)来利用预训练模型生成句法树。大概流程就是:

为了计算token j对于token i的影响度,首先mask掉token i,此时获取mask的词表示:7b4da57d4a5c0db5f3bda034e242d71c.png;然后mask掉token j,也会返回一个表示token i和j的词表示06b2f311d8ddee8454a48a727eaaa3e8.png,那么j对于i的影响度公式计算为:

5dbb443985225dd1378d8909e771b8df.png

重复上述操作,会得到一个每一对token的影响度的矩阵,那么就可以通过这个矩阵获取句法树。

模型

f416e0cb1b247183f2a29476848480f6.png

本文采用的模型很简单,就是在Aspect上做MLP分类来finetune RoBERTa即可。

实验

不同的树结构在英语数据集上的性能比较

79ec0e44ca227bbf7cba1f30325503ed.png

不同树结构在非英语数据集上的性能比较

b0b93a4188a98c52e6d49f52a7b3c0ba.png


FT-RoBERTa生成的树更加对Aspect友好

5d2e533795d4ca3527b424bc9ba9271c.png

与SOTA们作对比

5fdf00f1325d18b279808554573ec171.png

思考

所以说,真的不需要句法结构信息了吗?句法还重要吗?本文仅仅在ABSA上做了实验,其他任务呢?我个人倾向人为定义的句法结构肯定有缺陷,未来大一统是趋势,你们认为呢?各抒己见~


投稿或交流学习,备注:昵称-学校(公司)-方向,进入DL&NLP交流群。

方向有很多:机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等。

88bfd1dfd9ff33ab605cc0fb41dfbb65.png

记得备注呦

整理不易,还望给个在看!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

算法码上来

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值