自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

翻译 论文阅读《DialogVED: A Pre-trained Latent Variable Encoder-Decoder Model for Dialog Response Generation》

在开放领域中生成对话响应是一个重要的研究课题,其主要挑战是生成相关的和多样化的响应。在本文中,我们提出了一种新的对话预训练框架DialogVED,它在增强的编码器-解码器预训练框架中引入连续潜变量,以增加应答的相关性和多样性。在大型对话语料库(Reddit)的帮助下,我们使用以下4个任务对模型进行预训练,这些任务用于训练语言模型(lm)和变分自动编码器(VAEs)文献:1)掩码语言模型;2)回复生成;3) 词袋模型预测;bag-of-words prediction和4)KL散度降低。

2022-10-31 16:18:46 348

翻译 没有标准答案:基于知识的对话生成与对抗激活多参考学习

以知识为基础的对话(KGC Knowledge-grounded conversation)显示出极好的潜力,可以提供引人入胜和信息丰富的回答。然而,现有的方法强调在特定的对话语境中选择一个黄金知识,忽略了对话中的一对多现象。然而,现有的方法强调在特定的对话语境中选择一个黄金知识,忽略了对话中的一对多现象。为此,我们建立了一个多引用KGC数据集,并提出了一系列指标来系统地评估现有KGC模型的一对多有效性。

2022-12-12 20:26:01 361 1

翻译 《Context Tracking Network: Graph-based Context Modeling for Implicit Discourse Relation Recognition》

内隐语篇关系识别(IDRR Implicit discourse relation recognition)旨在识别语篇中两个相邻句子之间的逻辑关系。现有的模型未能充分利用语境信息,而语境信息在解释每一个局部句子中起着重要作用。

2022-12-02 17:35:15 289 1

翻译 论文阅读笔记《Multi-Task Pre-Training for Plug-and-Play Task-Oriented Dialogue System》

预先训练的语言模型最近被证明有利于面向任务的对话(task-oriented dialogue,TOD)系统。尽管取得了成功,但现有方法通常将此任务描述为级联生成问题,这可能导致不同子任务之间的错误累积和更大的数据注释开销。在本研究中,我们提出了一个统一的即插即用任务导向对话模型PPTOD(plug-andplay model for task-oriented dialogue)。此外,我们引入了一种新的对话多任务预训练策略,允许模型从异构对话语料库中学习主要的TOD任务完成技能。

2022-10-30 20:23:53 337

翻译 论文阅读笔记《DialFact: A Benchmark for Fact-Checking in Dialogue》

事实核查是减少错误信息和虚假信息传播的重要工具。我们介绍了对话中的事实核查任务,这是一个相对尚未探索的领域。我们构建了DIALFACT,这是一个包含22245条带注释的会话声明的测试基准数据集,并与维基百科的证据进行了配对。DIALFACT中有三个子任务:1)V可验证的索赔检测任务区分响应是否携带可验证的事实信息;2)证据检索任务检索最相关的维基百科片段作为证据;3)声明验证任务预测对话响应是否得到支持、驳斥或信息不足。

2022-10-30 15:47:26 176

翻译 论文阅读笔记《The MORAL INTEGRITY CORPUS: A Benchmark for Ethical Dialogue Systems》

内容警告:本文中的一些示例可能令人反感或不安。在开放域对话环境中,对话代理越来越接近人类的能力;然而,这些模型可能反映出不敏感、有害或完全不连贯的观点,这些观点会侵蚀用户对系统道德完整性的信任。道德偏差很难缓解,因为道德判断不是普遍的,而且可能存在同时适用于某一情况的多个相互竞争的判断。在这项工作中,我们引入了一种新的资源,不是为了权威地解决道德模糊,而是为了促进对对话系统话语中反映的直觉、价值观和道德判断的系统理解。

2022-10-30 15:30:52 109

翻译 论文阅读笔记《Improving Multi-label Malevolence Detection in Dialogues through Multi-faceted Label Correla》

如果对话反应建立在消极情绪、不恰当的行为或不道德的内容和对话行为的价值基础上,那么它就是恶意的。恶意对话应答的检测引起了越来越多的兴趣。目前的对话恶意检测研究在数据集和方法上存在一定的局限性。首先,可用的与恶意相关的对话数据集被标记为单一的类别,但在实践中为每个话语分配单一的类别可能不合适,因为一些恶意话语属于多个标签。其次,当前检测对话恶意的方法忽略了标签相关性。因此,我们提出了多标签对话恶意检测的任务,并众包多标签数据集,即多标签对话恶性检测(MDMD)进行评估。

2022-10-30 15:01:28 141

翻译 论文阅读《A Taxonomy of Empathetic Questions in Social Dialogs》

有效的提问是成功会话聊天机器人的关键组成部分。它可以帮助机器人表现出同理心,通过表现出对说话者情绪的关注,使互动更具吸引力。然而,当前的对话生成方法并没有对这种微妙的情绪调节技术进行建模,因为缺乏问题的分类及其在社交聊天中的用途。为了解决这一差距,我们开发了共情问题分类法(EQT),特别关注问题捕捉交际行为的能力及其情绪调节意图。我们进一步设计了一个众包任务,用已建立的标签注释共情对话数据集的一大子集。我们使用人群注释数据来开发自动标签工具,并为整个数据集生成标签。

2022-10-29 23:48:42 162

翻译 论文阅读笔记《Other Roles Matter! Enhancing Role-Oriented Dialogue Summarization via Role Interactions》

面向角色的对话摘要是为对话中的不同角色生成摘要,例如商家和消费者。现有方法通过分别总结每个角色的内容来处理此任务,因此容易忽略来自其他角色的信息。然而,我们认为其他角色的内容可能有利于摘要的质量,例如其他角色提到的遗漏信息。因此,我们提出了一种新的角色交互增强方法,用于面向角色的对话摘要。交叉注意交互旨在选择其他角色的关键对话话语,而解码器自注意力交互旨在从其他角色的摘要中获取关键信息。广泛的分析表明,其他角色的内容可以帮助生成具有更完整语义和正确主题结构的摘要。

2022-10-29 23:30:28 222

翻译 论文阅读笔记《Beyond the Granularity: Multi-Perspective Dialogue Collaborative Selection for Dialogue Stat》

在对话状态跟踪中,对话历史是一种重要的资料,不同模型对对话历史的利用不尽相同。然而,无论如何使用对话历史,每个现有模型在整个状态跟踪过程中都使用自己一致的对话历史,而不管更新的是哪个槽。具体来说,它首先检索对话历史的回合级话语,并从三个角度组合评估它们与插槽的相关性:(1)其与槽名的显式连接;(2)与当前回合对话的相关性;实验结果表明,我们的方法在MultiWOZ 2.1和MultiWOZ 2.2上取得了最新的性能,并在多个主流基准数据集(包括Sim-M, Sim-R和DSTC2)上取得了优异的性能。

2022-10-29 16:47:27 128

翻译 论文阅读笔记《SUMMN: A Multi-Stage Summarization Framework for Long Input Dialogues and Documents》

文本摘要帮助读者从文件、新闻、采访和会议中获取重要信息。然而,大多数先进的预训练语言模型(LM)无法有效地处理许多摘要任务的长文本。在本文中,我们提出了一个简单、灵活和有效的多阶段框架SUMMN,用于输入文本大于典型预训练lm的最大上下文长度。SUMMN首先拆分数据样本并在多个阶段生成粗摘要,然后在此基础上生成最终的细粒度摘要。我们的框架可以在保持LM输入大小固定的情况下,通过调整分段数来处理任意长度的输入文本。此外,它可以处理单源文档和对话,并且可以在不同的骨干抽象摘要模型之上使用。

2022-10-29 16:07:06 379

翻译 论文阅读笔记《DEAM: Dialogue Coherence Evaluation using AMR-based SemanticManipulations》

自动评估指标对于开放域对话系统的快速发展至关重要,因为它们有助于模型之间的超参数调优和比较。尽管最近提出的可训练的对话级指标显示出令人鼓舞的结果,但。之前的研究主要依靠启发式文本层面的操作(例如,话语洗牌),从连贯的对话(积极的例子)中引导不连贯的对话(消极的例子)。这种方法不足以恰当地反映高级对话模型与人类之间的互动中出现的不连贯。为了解决这个问题,我们——DEAM,它依赖于抽象意义表示(AMR)来应用语义级操作来生成非相干(负)数据。

2022-10-29 15:50:57 286

翻译 论文略读笔记《Structural Characterization for Dialogue Disentanglement》

复杂的多方对话环境导致了对话阅读理解的挑战,多个对话线索在一个共同的对话记录中同时流动,增加了理解人类和机器对话历史的难度。以往的研究主要集中于具有精心设计的特征的话语编码方法,但对对话结构的特征关注不足。我们特别考虑了结构因素,设计了一种新的对话解纠缠模型。基于对话是建立在说话人之间的连续参与和互动之上的事实,我们从两个方面对对话的结构信息进行了建模:1)speaker属性,表明消息来自谁;该方法在Ubuntu IRC基准数据集上实现了最新的进展,并有助于对话相关的理解。

2022-10-28 21:55:52 241

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除