![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
对话系统
hellozgy
这个作者很懒,什么都没留下…
展开
-
《Joint Slot Filling and Intent Detection via Capsule Neural Networks》
出处:ACL 2019一、摘要之前对于槽位填充和意图检测的工作都是将两者分开进行的,即使有同时进行的,也没有明显考虑word、slot和intent的层级关系。因此作者基于胶囊网络,提出一种带有重路由功能动态路由机制来联合进行槽位填充和意图检测工作。二、方法...原创 2020-02-16 21:14:52 · 900 阅读 · 0 评论 -
《Semantically Conditioned Dialog Response Generation via Hierarchical Disentangled Self-Attention》
来源:ACL 2019代码:https://github.com/wenhuchen/HDSA-Dialog摘要基于pipeline的任务型对话系统可以拆解成以下四个部分,其中NLU为意图槽位理解,DST为对话历史并能根据当前用户query更新状态,Policy learning为根据用户需求判断下一步action(也就是论文中提到的dialog act),NLG为对话生成。本论文目标是提高...原创 2020-02-16 11:32:09 · 795 阅读 · 0 评论 -
语料列表
MultiWOZ - A Large-Scale Multi-Domain Wizard-of-Oz Dataset for Task-Oriented Dialogue Modelling出处:EMNLP 2018描述:来自"绿野仙踪"的对话语料下载地址:http://dialogue.mi.eng.cam.ac.uk/ index.php/corpus/...原创 2020-02-15 20:52:09 · 219 阅读 · 0 评论 -
Efficient Large-Scale Neural Domain Classification with Personalized Attention
出处:ACL 2018摘要论文探索了在智能个人数字助理领域(IPDA)将用户口语输入映射到domain这个任务。主流的IPDA有很多第三方开发的domain,这在第一方domain的基础上大大提高了domain的丰富度。论文提出一种可以共享编码器且融合注意力机制的神经网络模型来解决这个问题,模型融合了个性化信息,并且可以高效适应不断增长的第三方domain,比完全重训取得量级上的加速。论文参照...原创 2020-01-20 13:14:20 · 230 阅读 · 0 评论 -
《Proactive Human-Machine Conversation with Explicit Conversation Goals》
论文出处:ACL 20191. 摘要论文提出了一种基于知识图谱能主导对话的对话系统,并开源了对应的数据集DuConv。该数据集涉及电影、导演和演员相关题材,包含3w个多轮对话,约27w个句子。每个对话包含一个目标三元组[START, TOPIC_A, TOPIC_B],表示系统的目标是将对话主题从A引导到B;另外包括一系列跟TOPIC_A或者TOPIC_B有关的知识三元组,形式为(主体,谓词,...原创 2019-11-22 23:11:08 · 1605 阅读 · 0 评论 -
《Mem2Seq: Effectively Incorporating Knowledge Bases into End-to-End Task-Oriented Dialog Systems》
1. 摘要端到端的任务型对话系统在知识库的融合方面受到挑战,这篇文章提出一种端到端的网络member-to-sequence(Mem2Seq)来解决这个痛点。Mem2Seq是第一篇融合指针网络的多跳attention的生成式模型。我们的模型具有普适性,训练的更快,且取得了SOTA的效果。2. 背景介绍传统的任务型对话系统将任务拆分成几个子模块:NLU(包括意图识别、槽位填充)、DM(包括DS...原创 2019-09-04 10:54:41 · 303 阅读 · 0 评论 -
《LEARNING END-TO-END GOAL-ORIENTED DIALOG》
** 摘要 **原创 2019-09-15 15:53:43 · 688 阅读 · 1 评论 -
《Multi-Domain Joint Semantic Frame Parsing using Bi-directional RNN-LSTM》
出处: InterSpeech 2016摘要对于NLU的三个任务:domain分类、intent检测、slot-filling,这种分成三个任务而不是端到端学习的优势是:灵活,对某个特定domain的修改不会影响其他domain可以在特定domain使用该特定domain的特征在domain内有更好的理解,因为比如在某一domain的意图检测,只需要在该domain的一个较小的子集内进...原创 2019-09-20 10:17:00 · 507 阅读 · 1 评论