对话系统 | (7) 对话系统简介

本篇博客主要参考/节选中科院自动化所王唯康博士的博士论文《任务型对话系统中对话管理方法研究》。

1. 对话系统分类

  • 设计目的

根据设计目的的不同,人机对话系统可以划分为三类:聊天机器人(chat bots)/闲聊型对话系统(微软小冰等)、问答系统(question and answering systems)和任务型对话系统(task-oriented dialogue systems,阿里小蜜等)。

聊天机器人的设计目的是尽可能让用户同系统进行更多轮的交互。在聊天过程中,用户没有任何明确的目的,系统起到的是情感陪护和娱乐的作用。因此,系统的趣味性和娱乐性较为重要。

问答系统的设计目的是回答用户关于事实性问题的提问,相关研究有基于知识图谱的问答(Question Answering over Knowledge Base,KBQA)[1,2]、机器阅读理解(Machine Reading Comprehension,MRC)/文本问答[3,4]、社区问答(Community based Question and Answering,CQA)[5,6]以及表格问答等领域密切相关。

任务型对话系统的设计目的是协助用户完成某一特定的任务(例如订餐、订飞机票等)。由于任务型对话系统采用对话的方式完成任务,因此这种完成任务的方式更加自然。尤其是在驾驶过程中,任务型对话系统可以解放司机的双手,使行车更为安全。 另外,在客服场景下,使用任务型对话系统替代人工客服能够为企业节省大量成本。因此,任务型对话系统的研究具有极其重大的现实意义。

  • 结构

任务型对话系统从结构上可以划分为三个模块:语言理解模块(Language Understanding,LU)、对话管理模块(Dialogue Manager,DM)和语言生成模块(Language Generation,LG)。其中,对话管理模块由对话状态追踪模块(Dialogue State Tracking,DST)和对话策略模块(Dialogue Policy,DP)组成,是任务型对话系统的中枢。

在早期的研究中,研究人员会分别实现这几个模块,然后把前一 个模块的输出作为后一个模块的输入,最后把语言生成模块的结果返回给用户。 这种方法被称为基于管道(pipeline)的方法。

这种方法直接学习对话上下文到 系统回复的映射关系,不需要单独设计各个子模块,避免了管道方法所带来的错误传递问题(error propagations),因此成为了学术界中设计任务型对话系统的主 流方法。

2. 现有对话管理方法的不足

虽然和任务型对话系统相关的研究取得了不错的进展,但是目前商用任务型对话系统依然严重地依赖规则的方法实现。其主要原因是现有对话管理方法存在如下几点不足:

  • 可维护性差
    设计任务型对话系统的第一步是预定义用户在系统中可以做什么样的操作,即用户的合法行为/动作。系统上线后,如果真实用户的某些行为没有被考虑到,系统则会给出不合理的回复。这个时候,开发者需要扩展原始对话管理模块,使得扩展后的模型能够处理新的用户行为。然而,扩展对话管理模块的成本很高。(可扩展性差)

  • 缺乏在线学习能力
    训练端到端的任务型对话系统时,开发者需要收集相应 任务下的对话数据。但是,语料的收集往往是存在偏差的。也就是说,收集到的语料不可能把某一任务下所有的对话场景全都囊括进去。此外,对话系统所需处理的用户需求可能会随着业务的变化而变化。然而,已有的任务型对话系统在部署后无法继续学习对话知识。因此,系统在处理没有考虑到的用户需求时会给出不合理的回复。

  • 缺乏知识利用的能力
    已有的对话管理方法主要关注订餐等较为简单的槽填充任务。解决这类任务时并不涉及知识的推理与利用。然而在实际的应用中,存在许多对话任务要求对话管理模块根据客观知识灵活地制定交互策略。现有对话管理方法在知识利用能力上的不足无疑限制了任务型对话系统的实际应用范围。

3. 参考文献

[1] YANG M C, DUAN N, ZHOU M, et al. Joint relational embeddings for knowledge-based question answering[C]//Proceedings of the 2014 conference on empirical methods in natural language processing (EMNLP). 2014: 645-650.
[2] BAO J, DUAN N, ZHOU M, et al. Knowledge-based question answering as machine translation[C]//Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). 2014: 967-976.
[3] SHENY,HUANGPS,GAOJ,etal.Reasonet:Learning to stop reading in machine comprehension[C]//Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. 2017: 1047-1055.
[4] HUANG H Y, ZHU C, SHEN Y, et al. Fusionnet: Fusing via fully-aware attention with application to machine comprehension[J]. arXiv preprint arXiv:1711.07341, 2017.
[5] JEON J, CROFT W B, LEE J H. Finding similar questions in large question and answer archives[C]//Proceedings of the 14th ACM international conference on Information and knowledge management. 2005: 84-90.
[6] XUE X, JEON J, CROFT W B. Retrieval models for question and answer archives[C]//Proceedings of the 31st annual international ACM SIGIR conference on Research and development in information retrieval. 2008: 475-482.

  • 0
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值