A Neural Conversational Model


前面介绍过几篇seq2seq在机器翻译、文本蕴藏、自动文摘领域的应用,模型上每篇稍有不同,但基本的思想是接近的。本文继续分享一篇seq2seq在对话生成任务上的应用,是一篇工业界的论文,因此并没有什么理论创新。之所以选这一篇,是因为对话生成是一个非常热门的研究领域和应用领域,也可能是一个非常热门的创业领域,另外一个原因是为了充实seq2seq在各个领域中的应用这一主题。论文题目是A Neural Conversational Model,作者是来自Google Brain,毕业于UC Berkeley的Oriol Vinyals博士,论文最早于2015年7月放在arxiv上。


模型部分不用多说,是最简单的seq2seq,架构图如下:


640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

本篇主要想分享的东西是结果以及一些思考。文中采用了两个数据集,IT Helpdesk Troubleshooting dataset和OpenSubtitles dataset,前者是一个关于IT类的FAQ数据集,后者是一个电影剧本的数据集。


我们可以看一下训练后的模型生成的对话结果,这里只关注第二个数据集的结果:


常识类问题:


640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

哲学类问题:


640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=


道德类问题:


640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=



为了对比,作者添加了一组cleverbot(cleverbot是一个在线聊天机器人)的对比结果,如下:


640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

从对比结果中可以看得出,本文模型生成的结果比网上流行的在线聊天机器人要看起来更加“智能”一些,之前在知乎上回答过一个问题 三代聊天机器人在技术上的区别在哪里?,我想cleverbot更接近于第二代,采用了对话检索,即对话是从一个很庞大的数据库中匹配检索来的,而本文的模型属于第三代,更加智能,给定输入生成输出,并不需要借助于人工特征。


但bot这个领域确实还面临一些问题,就像文中作者所说,如何客观地评价生成的效果非常重要,尤其是对于一些没有标准答案的问题来说,根本无法衡量哪个结果更加好。其实不仅仅bot,在自动文摘、机器翻译等各种nlp任务中,评价都是一个很难的问题,自动评价只是从某种意义上解决了各个模型相互比较的一种需求,但在实际应用当中用户的评价更加重要,虽然有时并不是那么客观。



来源:paperweekly


原文链接


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值