《Semantically Conditioned Dialog Response Generation via Hierarchical Disentangled Self-Attention》

来源:ACL 2019
代码:https://github.com/wenhuchen/HDSA-Dialog

一、摘要

基于pipeline的任务型对话系统可以拆解成以下四个部分,其中NLU为意图槽位理解,DST为对话历史并能根据当前用户query更新状态,Policy learning为根据用户需求判断下一步action(也就是论文中提到的dialog act),NLG为对话生成。本论文目标是提高后两步的性能。
在这里插入图片描述
示例如下:
在这里插入图片描述
创新点:将dialog act表示成图结构,并使用了独立多头self-attention(Disentangled Self-Attention,DSA)。

二、Dialog Act表示

定义:dialog act是一个语言序列的语义状态,包括action、意图、槽位名、槽位值。
论文将dialog act表示成(domain, action, slot)三元组,比如hotel-inform-location、hotel-inform-name等。表示dialog act的结构有两种方式,分别为树结构和图结构。假设domain数n1,action数n2,slot数n3。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值