ACL2021论文笔记——Semantic Representation for Dialogue Modeling

论文链接:Semantic Representation for Dialogue Modeling (aclanthology.org)https://aclanthology.org/2021.acl-long.342.pdf

attention: 本文的"我"、"我们"都指作者


概述:
题目为《对话建模的语义表示》

仍需解决的问题:1.AMR  2.feature fusion (Mangai et al., 2010)  3.dual attention

0.Abstract

        尽管神经模型在对话系统中取得了有竞争力的结果,但它们在表示核心语义方面的能力有限,例如忽略重要实体。为此,我们利用抽象含义表示(AMR)帮助对话建模
        与文本输入相比,AMR明确地提供了核心语义减少了数据稀疏性。我们开发了一种算法来从句子级 AMR 构建dialogue级 AMR 图, 并探索两种将 AMR 合并到对话系统中的方法。对话理解和响应生成任务的实验结果表明了我们模型的优越性。
        据"我们"所知,"我们"是第一个将形式语义表示用于神经对话建模的人。

摘要发现:
(1)本文要克服的问题:神经模型在核心语义(core sementics)表现上有很大的不足,比如忽略重要实体。
(2)使用的方法:利用抽象语义表示(AMR)帮助对话建模。
(3)创新点:使用AMR合并到对话系统中;
                        使用句子级的AMR构建dialogue级AMR的算法;
                        第一个将形式语义表示用于神经对话建模。
(4)优势:明显提供核心语义、减少数据稀疏性。

1.Introduction

(1)对话系统在逐渐受到大家的越来越多的注意,许多目前工作关注于social chats以及任务型对话。
(2)对话建模包含两个子任务:对话理解(dialogue understanding)以及响应生成(response generation)
(3)当前最先进的方法是采用end-to-end training方法(如seq2seq的模型用于encode对话历史,合成一句话,如图1),

图1
图1

但是,缺点在于该神经模型在语义表示的时候会(由于端到端训练)受到虚假特征关联的影响,可能会使得到的对话与原来的对话不相关。 
就像,图1中的Lamb可能被理解为简单的食物,因为没有关注整体的框中的内容,这就是nerual representation的缺点,但是我们可以通过语义信息的结构化表示来缓解这些问题,将实体视为节点并在节点之间建立结构关系,从而更好地了解真正的语义

Explicit structures are also more interpretable compared to neural representation and have been shown useful for information extraction (Strubell et al., 2018; Sun et al., 2019; Li et al., 2020; Bai et al., 2021; Sachan et al., 2021), summarization (Liu et al., 2015; Hardy and Vlachos, 2018; Liao et al., 2018) and machine translation (Marcheggiani et al., 2018; Song et al., 2019a).

(4)对于(3)中的问题,我们使用AMR对句子进行建模,突出主要概念以及语义关系,同时抽象掉虚词,减少相同含义的表面形式的方差,增加了数据的稀疏性
(5)但是,句子中的AMR与对话中的AMR不同,由于对话中会有A和B角色的交叉话语共指链接
 

图2 - 共指链接、交叉话语

 因此,"我们"提出了一种算法:通过添加指示说话者、相同提及和共同参考链接的交叉话语链接,自动从utterance级AMR导出dialogue级AMR。
(6)dialogue级AMR的两种方法:
① 通过AMR到文本对齐将AMR与其相应句子中的标记合并,然后使用图转换器对结果结构进行编码。
 

图3 - 先得到utterance-level AMR,再通过转换得到dialogue级AMR结构

分开编码AMR以及其相关结构,然后通过特征融合(feature fusion)或者dual attention得到结果结构。

经验证,所建立框架在对话关系提取任务的时效性以及响应生成任务都优于之前。

(7)AMR引入优势:深度分析和人工评估表明,AMR引入的语义信息可以帮助我们的模型更好地理解长对话提高对话生成的连贯性。另一个优点就是AMR的引入增加了模型的鲁棒性

"我们"给出的代码:GitHub - AMR-Dialogue: Code for our paper "S R for D M" in ACL2021Code for our paper "Semantic Representation for Dialogue Modeling" in ACL2021 - GitHub - muyeby/AMR-Dialogue: Code for our paper "Semantic Representation for Dialogue Modeling" in ACL2021https://github.com/muyeby/AMR-Dialogue

2.Constructing Dialogue AMRs

目标:被给定含有多个utterance的dialogue,由multiple utterance-level AMRs得到一个dialogue-level AMR。

具体方法:使用pretrained AMR parser,AMR Parsing via Graph-Sequence Iterative Inference (aclanthology.org)https://aclanthology.org/2020.acl-main.119.pdf

使用这个parser(解析器)将每一个utterance转换为一个AMR graph,对于包含多个句子的utterance,我们将它们解析成多个AMR图,并标记它们属于同一个utterance。
我们再将每个utterance AMR graph之间通过connection连接起来,得到dialogue AMR的graph。

我们根据Speaker、Identical Concept、Co-reference三个方面采取三种策略

① Speaker:
创造一个Dummy虚拟节点,连接每个utterance的根节点(蓝色线条线条上面标明speaker),Dummy用来表示这整个对话。
虚拟节点确保所有话语 AMR 都已连接,以便在图编码期间可以交换信息。

② Identical Concept(完全相同的概念):
例如这里面的两个"possible"就连接上了红色的线条。这种类型的连接可以进一步增强跨句信息交换。

③ Co-reference(句间共指):
也就是句间共指,例如“I”与“sir”、“mistake”与“it”。
表明内容之间的共指关系。

3.Baseline System

什么是baseline:什么是深度学习中的baselinehttps://blog.csdn.net/Lison_Zhu/article/details/97554928?spm=1001.2101.3001.6650.1&depth_1-

基准模型系统:使用 Transformer 对于dialogue history进行编码
Transformer:输入 对话历史——S(Dialogue History)得到向量化的word representation——也就是H

S是所谓的dialogue history,emb也就是embedding(嵌入操作),至于嵌入操作是什么,知乎回答可以作为参考怎么形象理解embedding概念?https://www.zhihu.com/question/38002635

 3.1 Dialogue Understanding Task

分段讲解这个baseline system:
这一部分是对话的理解任务:

以对话关系抽取(dialogue relation extraction)为例:
 - 给定一个 dialogue history S 以及一个 argument pair ——(a1,a2)
 - 目标是预测 a1 与 a2 之间的关系 r ∈ R

该模型

a_i  是由 h_a_i 进行表示(denote)的

损失函数,用于训练该模型

其中由 a_i  -> h_a_i 的部分,是通过BERT进行计算的。

3.2 Dialogue Response Generation Task

使用了 auto-regressive Transformer decoder(自回归Transformer解码器)产生 response 

 - 输入:dialogue history S
 - 输出:Y = {y1, y2, y3, ... , y_|Y|} 

其他论文笔记推荐:
ACL2021论文笔记——Constructing MMD Dataset by Replacing Text with Semantically Relevant Images_Mike峰的博客-CSDN博客ACL2021论文,标题:通过语义相关的图像替换文字来建立多模态数据集 关键词:Constructing Multi-Modal Dialog Dataset by Replacing Text with Semantically Relevant Images、多模态、对话系统、相关语义的图像替换、数据集构建、ACL2021、NLP、深度学习、自然语言处理作者机构:韩国科学技术院 (KAIST)作者:Lee等https://blog.csdn.net/m0_58550000/article/details/121388279

  • 14
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值