对话系统论文集(11)-个性化任务型对话推荐

Learning Personalized End-to-End Goal-Oriented Dialog

解决问题:
语言风格(调皮还是正经);
动态策略变化(如果客人本身标签吃素,优先推荐素餐);
自动解决user问题可能含有歧义(contact是qq还是tel)

创新:
使用memory network;

将profile embedding加入到memory的查询向量;

每部查询时加入一个外界的global embedding(相似用户的历史对话帮助理解)

结果:

说实话我觉得改观不大

总结:

我瞧不起memory network,而且觉得改观不大

Personalized Response Generation via Domain adaptation

问题:

个性化用户回复,闲聊型

背景:
dual learning:

现实中,很多AI任务都是成对出现的。比如,中英互译,既要从中文翻译成英文,又要从英文翻译成中文。这样的任务就叫做对偶任务。

启示:对偶任务可以互为环境,在没有人工标注的情况下,互相提供反馈信息。这些反馈信息可以直接用来训练模型。

简要介绍一下这种学习方法的基本思路:假如现在小明只能讲中文, Alice 只会讲英文,他们两个人虽然都不懂对方的语言,但是他们希望能够可以中英文之间的两个翻译模型(中译英,英译中)。怎样可以实现他们的这个目的呢?首先,对于一个英文的句子,Alice 先用翻译工具将其翻译为中文,由于她并不懂中文,于是她直接把句子发给了小明;但小明又不懂英文,于是小明只能按照中文的语言习惯判断这个句子是否通顺,这可以帮助小明判断这个「英译中」的系统是否做得很好,随后,小明把他修改过的句子再用「中译英」的系统翻译成英文,并把英文句子发给 Alice。Alice 虽然不懂中文,但她能比较经过这一大圈的翻译之后,得到的新句子与最初的版本是否相似。这一信息可以帮助判断是否两个翻译模型都表现良好。随着「对偶学习」过程的持续进行,未标注的数据也得到了充分的利用,利用这些信息,可以帮助提高对偶任务中的两个翻译模型。这种对偶学习的想法为进一步改进现有的翻译模型提出了崭新的思路。

我认为就是GAN


创新

使用dual learning

Personalizing dialogue agents: I have a dog, do you have pets too?

ACL2018

创新点:

chitchat形式

其他个性化论文,我还没有查找,感觉确实过于小众化。

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值