论文阅读(2021) 探讨语境在会话中话语层情绪、行为和意图分类中的作用

一. 介绍

采用特定于说话者和语境的建模来解决这些任务,在这些任务中,语境的作用还没有得到彻底的探讨,部分原因是在各种话语层面的对话理解任务中缺乏统一的框架
提出了几种独特的情境探测策略:(1) 特定说话人语境;(2) 语境顺序;(3) 释义语境;(4) 标签转移;(5) 条件随机场在对话中话语顺序标注中的作用

任务定义: 给定一个对话以及每个组成话语的说话人信息,话语级对话理解任务旨在从一组预定义的标签中识别每个话语的标签,这些标签可以是一组情绪、对话行为、意图等

  二. 模型

以端到端的方式训练分类模型。首先使用CNN模块和预训练GLOVE向量提取话语级特征。由此产生的特征本质上是非语境的,因为它们是从没有周围语境的话语中获得的。然后用以下两种模型之一对话语进行分类(逻辑回归或双向语境LSTM)。其中,逻辑回归模型本质上是非上下文的,而bcLSTM是上下文的

1. Utterance Feature Extractor

GloVe CNN :CNN用于从对话的话语中提取特征,使用卷积层、最大池和全连接层来获得话语的表示,话语中的每个单词都用300d预训练的GloVe嵌入进行初始化,将其传递给大小为1、2和3的卷积滤波器,每个滤波器都有100个特征映射。然后,这些过滤器的输出被最大化为一个话语中的所有单词。然后,通过ReLU激活将其连接并馈送至100维全连接层(。激活后的输出形成了话语的最终表征

2. Utterance Classifier

Without Context Classifier:使用全连接的MLP对话语进行分类,这种分类是非语境的,因为语境话语中没有信息流,称为GloVe CNN

GloVe bcLSTM:双向语境LSTM从周围的话语中捕获语境内容,从而创建语境感知的话语表达,话语特征提取器提取的特征表示作为bcLSTM网络的输入。最后将bcLSTM输出的上下文感知话语表示用于标签分类。bcLSTM模型与说话人无关,它不模拟任何说话人级别的依赖关系。在实现中,在第一层和最后一层的输出之间添加了一个剩余连接,以提高网络的稳定性。(GloVe bcLSTM)

三.  实验

数据集: 

 结果:

w/o Inter-Speaker Dependency:对说话人a的目标话语进行分类时,会从上下文中删除说话人B的话语,反之亦然

w/o Intea-Speaker Dependency:对说话人a的目标话语进行分类时,只保留说话人B的话语,并从上下文中删除说话人a的所有其他话语,反之亦然

 四. 分析

1. 特定说话人语境控制

非目标说话者的话语很重要:第一个设置强制LSTM在预测中仅依赖目标说话人(目标话语的说话人)的上下文

目标说话者的话语很重要:‘w/o Intra-Speaker Dependency’展示了非目标说话者的话语在目标话语分类中的重要性。DailyDialog数据集中的 ‘w/o Inter-Speaker Dependency’设置显示了两种任务的不同趋势——行为分类和情绪识别,虽然非目标说话者的话语对情绪识别有一定价值,但它们对行为分类非常有益,这需要特定于任务的上下文建模技术,这应该是未来工作的重点。

虽然目标说话者和非目标说话者的话语在一些话语层面的任务中都是有用的,但在我们的实验中,观察到一些任务中存在不同的趋势 ,因此,我们推测,任务不可知的统一上下文模型在解决所有任务时可能不是最优的。未来应该努力建立特定于任务的上下文模型,因为每项任务都可以具有独特的功能,使其与其他任务不同,还可以考虑多任务体系结构,其中两个任务可以在提高总体性能方面相互证实

2. 混合语境下的分类

 为了分析语境的重要性,对对话的话语顺序进行了调整,并试图从调整后的顺序中对正确的标签进行分类。随机调整顺序:

  1. 训练和验证集中的对话被调整,测试集不变
  2. 训练和验证集中的对话保持不变,但测试集中的对话被调整
  3. 训练、验证和测试集中的对话都被调整

在GloVe bcLSTM模型中分析这些策略,LSTM模型的递归性使得它能够从序列的开始到最后对上下文信息进行建模,然而,在对话语进行分类时,最关键的语境信息来自相邻的话语。在经过改变的语境中,该模型会发现很难预测正确的标签,因为原始相邻的话语在随机调整后可能不在直接语境中,这种扰动会降低上下文建模的效率,与非无序上下文建模相比,性能可能会下降。

 

3. 使用上下文和目标释义进行攻击

 释义句子构建有效对抗性例子

 

4. 标签转移的性能

一些任务具有标签复制特性,这意味着同一说话者或不同说话者的连续话语通常具有相同或相似的情感、行为或意图标签。在EMOCAP emotion task, the DailyDialog act task和 the MultiWOZ intent task中尤其普遍,当话语显示相同标签的这种延续时,bcLSTM等语境模型可以做出正确的预测。但是当标签发生变化时会发生什么呢?bcLSTM是否继续在同一水平上运行,或者是否受到变化的影响?为了更详细地理解这种情况,我们将此事件定义为标签转移,并查看对话过程中可能发生的以下两种不同类型的转移: 

  1. Intra-Speaker Shift:话语的标签不同于同一说话人先前话语的标签
  2. Intra-Speaker Shift:话语的标签不同于非目标说话者先前话语的标签。

 

5. 使用条件随机场(CRF)的序列标记 

话语层面的对话理解任务类似于序列标记,任务中是否存在与数据集无关且可能被CRF捕获的明显的标签依赖性和模式?为了回答这个问题,在bcLSTM网络的顶部插入了三个不同的CRF层:

  1. Global-CRF:用于bcLSTM顶部的线性链CRF,不考虑说话人信息
  2. Global-CRFext:线性链CRF被扩展,不仅是从上一个标签到当前标签的转换可能,还包括从上一个标签到上一个标签的转换可能,简而言之,当前标签基于前两个标签。
  3. Speaker-CRF:对话中使用两个不同的CRF。在该设置中,CRF不太可能捕获说话者之间的标签依赖关系和转换

 

 

 

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值