知识对话2021《Augmenting Knowledge-grounded Conversations with Sequential Knowledge Transition》论文解读

Augmenting Knowledge-grounded Conversations with Sequential Knowledge Transition

本文针对知识驱动对话任务提出了两个子任务:知识选择/对话生成
在这里插入图片描述

1.知识选择

提出了知识转移的思路,即每轮对话的知识内在也是有联系的
在这里插入图片描述

做法:Bert编码历史上下文+BiLSTM建立时序信息+CRF对应知识标签
这个做法有点像任务型对话中的槽填充,"每个token编码后输出槽位值"的做法->“每轮对话的句编码输出知识标签”。
因为知识标签的数量是有限的才能建立这样的状态转移。根据标签去知识库里搜索,如果有很多个这样的标签,再用BM2.5打分,确定得分最高的为该轮知识。

2.对话生成

分为pretraining和finetune两阶段。
在这里插入图片描述

2.1pretraining

将知识三元组输入进去,输出是自然语言文本。egs:(梁朝伟,代表作,无间道)->(梁朝伟的代表作是无间道)
作者这样做是想让transformer学习知识三元组对应的自然语言语法结构,而非知识内容本身。

2.2finetune

输入为:知识标签,知识三元组,上下文
输出为:生成回复
(知识三元组的知识标签就是关系边,如果是知识文本,则用LDA模型确定类型)

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值