论文阅读(2022)Emotion Recognition in ConversationUsing Capsule Networks and GatedRecurrent Units

摘要

 以往的研究忽略了ERC任务中数据分布不均衡和数据不足的问题。本文提出了一个用于ERC任务的具有门控递归单元的 capsules网络(CapsGRU)框架,它可以学习话语的高级语义信息和上下文信息,能够更好地识别小类,减少数据不平衡的影响CapsGRUBERT模型利用从大语料库中学习到的特征以缓解数据不足的问题。结果还表明,结合胶囊网络和BERT可以获得进一步的改善和缓解数据不足的问题

一、介绍

需ERC任务解决了两个挑战:

  1. 一些强烈的情绪在日常对话中很少见,数据不平衡对少数情绪识别有很大影响。例如,人们通常很冷静,表现出一种中性的情绪,而只有在某些特定的情况下,他们才会表现出强烈的情绪,如愤怒或恐惧。因此,我们需要在减轻多数情绪影响的同时,对少数情绪保持敏感。
  2. 对话标注数据不足。人工标注数据的代价非常大,标注数据的缺乏导致深度学习模型的性能不完整。

为了缓解上述问题,提出了一种用于话语级情感识别的具有门控递归单元的 capsules网络(CapsGRU)框架。进一步设计了CapsGRU-BERT模型,该模型结合了BERT和capsule网络的优势。

二、模型 

1. IUFE: Individual Utterance Feature Extraction

对话中的第j个话语,在IUFE部分,首先,来自同一对话的每个话语被放入单词嵌入层,该层使用预训练word2vec模型将话语中的每个单词转换成300-vector的向量,连接这些向量,得到每个话语的低层语义特征。然后,将其作为低级 capsules被放入 capsule层。dynamic routing之后,得到更高级 capsules。这些高级 capsules可以通过聚类从低级 capsules中捕获高级语义信息。最后,我们展平来自胶囊层的所有高级 capsules向量,并获得话语嵌入。

2. CUC: Contextual Utterance Classification 

 对于 第i个对话,在CUC部分,从IUFE部分获得的话语嵌入被放入GRU层,使用Bi-GRU,可以捕捉当前话语和历史话语之间的序列关系,从而获得上下文嵌入,之后,上下文嵌入送到由两个前馈网络(将上下文嵌入转换成我们需要的维度)组成的全连接层,最后,使用softmax函数获得每个话语的预测情感类别。

3. CapsGRU-BERT Framework 

为了缓解对话标注数据不足的问题,设计了CapsGRU-BERT。CapsGRU-BERT模型不仅保留了胶囊网络识别小类情感的能力,还充分利用了BERT能够从大语料库中学习通用语言表示的优势,提高了ERC任务情感识别的整体准确率。首先,使用BERT的tokenizer将话语的单词转换成向量,并将数据处理成BERT要求的格式“tokenizer”。之后,用bert模型替换CapsGRU框架中的单词嵌入层,并将bert模型生成的上下文单词嵌入放入capsule层。最后,我们微调模型的BERT部分和其他部分的参数,以预测话语的情感类别

三、 实验 

  •  数据集: IEMOCAP, Friends 和 EmotionPush
  •  评估指标:weighted accuracy (W A) 和 unweighted accuracy(UW A) 
  •  实验结果:

 四、 结论

  1. 为ERC任务提出了一个CapsGRU框架,它可以通过胶囊网络捕获话语的高层语义信息
  2. CapsGRU-BERT模型,以利用从大规模语料库中学习到的特征
  3. 结合胶囊网络和BERT可以获得进一步的改善
  4. 未来计划添加条件随机场来建模情感标签,从而解决情感转移问题
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值