Mimicking the Thinking Process for Emotion Recognition in Conversation with Prompts and Paraphrasing

该论文提出了一种新的情感分析方法,结合BART模型和说话人背景知识,通过改写(paraphrasing)和释义(gloss)增强情感标签的区别。它利用历史上下文信息,对BART进行微调,并通过prompt策略整合说话人背景和上下文信息,提高了模型的分辨能力。
摘要由CSDN通过智能技术生成

论文评价:

发布于IJCAI2023,链接:论文链接 文章给我最大的启发在于给了很多细粒度或者说“会被忽略的”的知识的利用方法,例如如何利用说话人的背景知识,如何让情感标签之间的区别更大。

论文创新点:

提出了利用说话人的背景,上下文,情感标签的方法。

这里给出一些我之前没太见过的词(孤陋寡闻了属于是):

paraphrasing:改写,指的是把一个词或者一句话在保持含义不变的情况下改写成另一个词或另一句话

gloss:释义,这指的是在wordnet中对应一个词的词义,是一个brief definition(wordnet介绍

论文思路:

1.整体思路:

分为四部分:获得当前utterance的信息,如何利用历史上下文的信息,如何利用说话人的背景信息,如何利用一些句子增强标签之间的区别

1.获得当前utterance的信息

利用BART模型,以预测[mask](也就是emotion词)为目标,对BART做微调。

 2.利用历史上下文的特征

用第1步获得的BART模型获得每个utterance的hidden state,然后将它们与待判断情感的utterance做相似性判断:

 其中有一个小的优化,用一个线性变换处理hidden state,这里的W_i^{hist}对于相同的说话人和不同的说话人是不一样的,这样就将说话人的信息融了进去:

 最后再上一个Bi-LSTM:

这就构成了由历史上下文构成的信息表示

 

 3.利用说话人的背景

这里所称的说话人的背景知识指的是他之前说过的话,先从说过的话里挑出与当前utterance比较相关的k条(利用如BERTScore之类的方法)。

然后用的是与上一步骤中完全一样的构造方法:

 要注意的是,在这里,作者将两个信息融入最终的预测环节的方式是利用prompt:

 4.在标签分辨上做增强(应用的是paraphrasing方法,也就是”改写“)

这里提供的思路是将情感的标签变为其在SentiWordNet中的同义词,然后让模型生成它的Gloss,从而能让模型有着更强的分辨能力,这是一个辅助任务。构造prompt如下:

让BART去试图解决G_t(也就是gloss)的生成问题(这里和前面的预测mask其实是同样的prompt,只不过一类看起来像是NLG任务,一类看起来像是MLM的任务)

 

整个模型要解决的问题就由两部分组成,一类是预测gloss,一类是预测情绪词p

2.细节补充

关于如何去生成所谓的sense Gloss,也就是G_t,待补充

实验结果

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值