关于对话机器人的一些总结

关于对话机器人的一些总结

业务上:
类型
QABot:单轮对话,解决特定FAQ
TaskBot:多轮对话,解决特定场景问题
ChatBot:多轮对话,不解决问题

QABot:
应对FAQ场景
典型场景:input:奥巴马是哪里人? bot:美国人 ;End
实现方式:
1、KBQA、KGQA。基于图谱的可以通过知识图谱推理答案。基于数据库的可以基于数据库结构查找出答案。(KBQA也可以升级到多轮会话中)
2、TextQA。通过机器阅读理解(MRC)从文章中选取对应答案。

TaskBot
框架:入口→NLU意图识别(粗)→NLU意图识别(细)→DM决策路由获取句子中的不同层级的信息:情感分析、语音识别、实体识别、风控→通过句子的信息获得执行任务→NLG生成人类语言。
抽象:(NLU抽取意图、实体→DST填充Slot、历史信息、当轮意图→DP通过DST抽取的信息决定Action→NLG通过所选Action生成人能识别的自然语言)

ChatBot
距离:微软小冰(分层对话决策、闲聊区分通用或领域)
代表模型:end2end(GPT)
不解决实际问题
主动问问题
不同机器人切换的平滑剂
通过闲聊语料库给出检索答案
从闲聊语料库学习生成模型

QABot和TaskBot的关系:
QaBot是退化版本的TaskBot,缺少了DST的历史信息输入。

TaskBot中模型做了什么?
NLU:输入用户给的话,识别意图(文本分类)、获取实体(命名实体识别)。(DIET模型,输入句子,intent,MASK预测被MASK的token,CRF预测Entity、CLS与intent相似度,三个相加成为loss(该模型是多任务预测模型))
DST:输入当前状态、过去状态(都包含实体与意图)、输出DST的State(包含意图、实体,可能还有当前情感,个性)。(BERT-based model for DST:输入一次dialog对话,与slot-value,输出是这个slot-value与这句话的相似度。label就是属不属于这句话 https://arxiv.org/pdf/1910.12995.pdf)
DP:输入DST给State,输出Action。(文本分类)(TED Policy、基于Transformer的一个多任务模型,同时输出action的选择与实体信息(crf))。
NLG:输入DP给的实体,通过实体查询答案。(多方法:基于生成模型、基于模板的、查询DB或者图谱、MRC给出答案)

NLU都干了什么?
token化输入、特征抽取(不限于Emb化特征、tfidf、w2v)、预测意图(单意图softmax、多意图sigmoid)、实体抽取(ner_crf,lookuptable,regex)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值