生成-对话生成
文章平均质量分 92
生成-对话生成
nopSled
一周一更
展开
-
Cross Copy Network for Dialogue Generation翻译
作为自然语言生成(NLG)的重要任务,对话生成在各种应用中被广泛使用,例如聊天机器人和客户服务自动化。在过去的几年中,对话生成技术的突破主要集中在sequence-to-sequence模型上。最近,有些工作采用了外部知识来增强模型性能。Liu et al. (2018) 通过使用知识三元组来辅助对话生成。同样,Li et al. (2019);Reddy et al. (2019) 将文档作为对话生成的知识,而Xia et al. (2017);翻译 2022-10-27 14:41:18 · 126 阅读 · 0 评论 -
Diversifying Dialog Generation via Adaptive Label Smoothing
神经模型的成功大大推动了对话生成的研究。但是,这些模型中的大多数都会面临低多样性问题的困扰,在该问题中,模型往往会生成平淡无奇的响应,例如I don’t know或I’m OK。尽管已经提出了各种方法来解决这个问题,但神经模型生成的响应与人类响应之间仍然存在显着差距。此外,在改善生成响应的多样性时,一些现有方法甚至可能损害流利或连贯性。最近,Jiang and de Rijke (2018);翻译 2022-10-26 13:57:15 · 198 阅读 · 0 评论 -
Retrieve, Discriminate and Rewrite: A Simple and Effective Framework翻译
摘要翻译 2022-03-04 14:59:09 · 143 阅读 · 0 评论 -
DialogBERT: Discourse-Aware Response Generation via Learning to Recover and Rank Utterances翻译
摘要翻译 2022-01-27 16:57:52 · 241 阅读 · 1 评论 -
CARE: Commonsense-Aware Emotional Response Generation with Latent翻译
摘要理性和情感是人类的两个基本要素。具有理性和情感的生成agents是AI的主要目标之一。然而,在对话AI领域,大多数现有模型只专注于一个方面,而忽略了另一个方面,这通常会导致沉闷或无关的响应。在本文中,我们认为同时将理性和情感与对话agents相结合,可以提高响应的质量。为了测试该想法,我们专注于理性的一个基本方面,即常识,并提出了CARE,这是一种新的基于常识和情感的响应生成模型。具体而言,我们首先提出了一个框架,在给定输入消息和期望情绪的条件下,来学习和构建基于常识和情感潜在概念。然后,我们提出了三翻译 2022-01-14 17:45:53 · 402 阅读 · 0 评论 -
EQG-RACE: Examination-Type Question Generation翻译
摘要翻译 2022-01-10 15:00:16 · 312 阅读 · 0 评论 -
Guiding the Growth: Difficulty-Controllable Question Generation through Step-by-Step Rewriting翻译
摘要本文探讨了难度可控的问题生成(DCQG)任务,旨在生成具有所需难度级别的问题。以前关于此任务的研究主要是根据否可以被问答系统正确回答,来定义了问题的难度,这缺乏可解释性和可控性。 在我们的工作中,我们根据回答该问题所需的推理步骤的数量来重新定义了问题难度,并认为问题生成(QG)系统应该能够严格地控制生成问题的逻辑。为此,我们提出了一种新的框架,通过在提取的推理链的指导下通过逐步重写来逐渐提高问题难题。我们进行了数据集自动构建以方便研究,并在广泛的实验上测试了我们方法的性能。1.介绍难度可控的问题生翻译 2021-08-13 19:33:49 · 333 阅读 · 0 评论 -
AUGNLG: Few-shot Natural Language Generation using Self-trained Data Augmentation翻译
摘要自然语言生成(NLG)是一个面向任务对话系统中的关键组成部分,它将结构化的语义表示(MR)转换为自然语言。对于大规模的对话系统,在具有超过数百个意图和数千个槽的情况下,基于模板的方法和基于模型的方法都不是可扩展的。最近,神经NLGs开始利用迁移学习,并在few-shot的配置中显示出有希望的结果。本文提出了AUGNLG,这是一种新的数据增强方法,通过将self-trained的神经检索模型与few-shot学习的NLU模型相结合,自动从开放领域文本构建MR-to-Text数据。所提出的系统在BLEU和翻译 2021-12-31 15:56:09 · 242 阅读 · 0 评论 -
Conversations Are Not Flat: Modeling the Dynamic Information Flow across Dialogue Utterances翻译
摘要1.介绍2.方法翻译 2021-12-14 19:34:59 · 197 阅读 · 0 评论 -
Reasoning in Dialog: Improving Response Generation by Context Reading Comprehension翻译
摘要翻译 2022-01-06 17:10:54 · 182 阅读 · 0 评论