论文笔记——EMPATHETIC RESPONSE GENERATION VIA EMOTION CAUSE TRANSITION GRAPH

论文评价

发表在ICASSP,即International Conference on Acoustics, Speech and Signal Processing,是IEEE名下的,很明显这并不是一个做文本的学术会议

总体评价是:这不是一篇好的论文,只能是说思路可以看,但细节完全不忍直视。

论文创新点:

不同于传统的使用情绪分类器先提取出情绪的方法,这篇文章使用了情绪诱因提取的方式来增强共情对话生成(虽然这一方法并不是该文章首创)。

论文思路:

首先要说明的是关于数据集的修改,

作者对数据集进行了补充,原数据集(也就是2019年发表的EmpatheticDialogue,ED)并没有对情绪诱因进行标注,于是作者手工增加了标准便于训练。

原数据集对对话标注了emotion标签,但emotion标签原则上不能直接当成已知的(因为对话本身是不会有emotion标注的),但本文当中,作者并没有解释他的emotion标签是怎么来的,我觉得可能就是直接用了数据集里的(这样做是完全错误的)。

模型思路如下:

用spanBERT对"上下文 [SEP] emotion"进行编码,然后使用指针网络把情绪诱因的开始和结束位置提出来,再用基于规则的方式提取出诱因片段的关键词(但我印象中好像有KeyBERT可以用)。

所有提取出的关键词会被当成图里的节点(vertex,或者文中使用的concept),构建一个图。

结合经过BERT的上下文编码和图,使用Transformer Decoder进行解码.。

但文章认为可能解码器过于关注那些出现频率比较高的关键词(或者说图的顶点),于是使用了Insert Transformer,将decoder中层的输出当作输入,真正的回复当作label,用多任务学习来优化deocder(虽然我并不知道这为什么能解决他提出的问题,作者也没有解释)。

最终使用BERT作为编码器,将预测出的回复节点和上下文连起来放入BERT进行编码,然后再放到Transformer解码器中解码,得到最终的输出。

实验结果

我不知道是arxiv的问题还是论文就是这样,实验结果的大表格是没有标题的。只能通过和另一个表的数据对比大概能看出是什么,对应的应该是这样:

4decca5814af48f38626485f9804192d.png

71dc601fd29c4ac69b4e9fa9688ac1a0.png

 实验结果中写的其他论文的数据在原论文中也不是这么低,至于是谁有问题那我就不知道了

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值