Learning Matching Models with Weak Supervision for Response Selection in Retrieval-based Chatbots-阅读

Learning Matching Models with Weak Supervision for Response Selection in Retrieval-based Chatbots-论文阅读
会议:ACL2018
作者机构:北航、微软中国

摘要(翻译):

我们提出了一种在基于检索的聊天机器人中利用未标记数据学习回答选择匹配模型的方法。该方法采用序列到序列结构(Seq2Seq)模型作为*弱注释器(annotator)*来判断未标记对的匹配程度,然后对弱信号和未标记数据进行学习。在两个公共数据集上的实验结果表明,使用该方法学习匹配模型时,匹配模型得到了显著的改进。

一、介绍

现有研究及重要如何用神经网络定义匹配模型,但在标记数据很少的情况下,如何学习这样的模型很少收到关注。由于人类标记昂贵,无法使用大规模标记数据进行模型训练。因此,一种常见的做法是将匹配问题转化为一个分类问题,人类标注为正面例子,反面例子为随机抽样出的例子,但是这种方法简化了问题,因为大多数随机抽样的回答要么与信息或上下文的语义相去甚远,要么是误报,会作为噪声污染数据。因此,一个模型训练时的表现与实践时的标签相去甚远。
我们提出了一种新的方法,通过从索引中检索候选回答来构建未标记数据集。然后使用弱注释器为未标记的输入回答提供匹配信号,并利用这些信号监督匹配模型的学习。弱注释器是从大量没有任何注释的人类对话中预先训练出来的,因此,Seq2Seq模型是一个很好的选择。
我们的方法的一个优点是,它将现有的学习范式中的强0,1标签转换为弱匹配分数。因此,该模型可以在真实的回答和真实的负面示例之间获得较大的差异,在真实的回答和假的负面例子之间获得较短的语义距离。此外,由于模拟了真实场景,在训练阶段可以看到更难的示例,使得模型在测试上更加强壮。
贡献:
1)提出一种利用未标记数据来学习基于检索的聊天机器人的匹配模型;
2)在公共数据集上对该方法的有效性进行验证。

二、方法

1、一种现有方法:
已知一个数据集D={xi, (yi,1,…,yi,n)},xi表示一个对话上下文或已知信息,yi,j为xi的一个回答候选,我们需要训练一个匹配模型M(·,·)。
现有方法存在两个问题:
1)如何定义模型M(·,·);
2)如何实现训练。
瓶颈在于:训练使用的候选回答多从数据集中随机选择,和xi语义相去甚远;一些候选回答是假消极。
2、一种利用未标记数据进行学习的匹配模型:
特点:
1)在构建数据集D={xi, (yi,1,…,yi,n)}时将原来随机抽取的回答(yi,2,…,yi,n)改为使用人工回答yi,1作为索引构建(yi,2,…,yi,n)。这种方法使一些回答yi,j是真正的答案,一些反面回答在语义上也很接近问题xi。
2)然后,我们使用一个弱注释器G(·,·)计算D中每一组问答(xi,yi,j)的匹配程度作为弱监督信号(sij=G(xi, yi,j))。训练方法公式为:
在这里插入图片描述
对于现有方法的问题2),对于一个问题xi,首先用索引的方法获得其回答候选集,然后使用人工对每个问答对进行标注,最后将数据和人工标签一起输入一个最优化算法中。这样我们就用便宜的模型的判断替换了昂贵的人工标签。
模型G(·,·)是一个带有注意力机制的seq2seq结构,用大量的人-人对话数据进行预训练Seq2Seq模型可以抓住问题和回答的语义对应的地方,然后将只是转化为模型在前文最优化问题中的训练。Sij定义的公式如下:
在这里插入图片描述
介绍oversimplification problem问题如何解决。
本模型和GANs的区别。(暂时没看这两段)

三、实验

数据集:STC数据集、豆瓣对话数据集(一个单轮,一个多轮)
代码TensorFlow实现(sad)
实验结果:
在这里插入图片描述
使用这种方法的LSTM和CNN相较原来都有提升。
在这里插入图片描述
(当然还是比不过bert的)
在这里插入图片描述

四、总结(我写的,建议不读)
论文模型用的A neural conversational model. (Oriol Vinyals and Quoc Le. 2015. )里的模型,提供的是一个训练模型时的方法,大概就是把原来的候选答案换成搜索引擎搜出来的更相关的答案,然后用人工贴标防止假消极回答混进来,然后用他提出的弱解释器(用的Seq2Seq)算匹配程度作为弱监督信号,再用公式训练。解决的是neg回答问题完全无关、假neg回答的问题。
代码没有开源。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值