[dialog system] 阅读笔记 - 2016--HRED

首选吐槽一下csdn, 博客title的长度竟然有限制,一篇论文题目都放不下。试了下简书, 完全无障碍。

Ref

Introduction

  • open-domain, large corpus, generative model,non-goal-driven
  • 采用层次end2end 架构(HRED),一层对token-level 建模,一层对sentence-level 建模。sentence-level 相当于考虑了会话历史信息,并作为context 应用到decode 端。
  • improved by bootstrapping and pretrained word embeddings
  • 三轮对话(three consecutive utterances)
  • data set: 电影字幕(movie scripts)

problem

标准的seq2seq 模型在dialog system 中对上下文信息的依赖有限,本文提出一种能够对句子和上下文同时建模的分层网络,来实现多轮对话。

model

HRED

  • 对conversation 进行分层, 每个 conversation 可以看作是utterance的序列,同样每个utterance 可以看作是token的序列。
  • encoder RNN 将每个 utterance 编码为一个dense vector( utterance vector),其中utterance vector 为 encode RNN 的最后一个隐藏状态;
  • context RNN 对已经得到的utterence vector 进行编码。这样在解码生成response 是就可以利用会话的历史信息;
  • context RNN 的目的是希望speakers们基于相同的会话背景(如topics, concepts)进行会话,这样才能产生有意义的会话;
  • bootstrapping 。首先在大语料上训练word embedding,然后在{Q,A}对大语料上预训练模型

comment

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值