《Adversarial Training for Community Question Answer Selection Based on Multi-scale Matching》笔记

3 篇文章 0 订阅
这篇博客探讨了AAAI2019年的一篇论文,针对社区问答(CQA)任务中的语义鸿沟和标签不均衡问题。论文提出采用多尺度匹配和对抗训练方法,通过在不同粒度上比较单词和n-grams,增强模型的语义理解。对抗训练网络生成高质量负样本,改善分类性能。模型包括用于匹配和评分的CNN,以及用于生成和判别负样本的组件。
摘要由CSDN通过智能技术生成

来源:AAAI2019
资源:https://arxiv.org/pdf/1804.08058.pdf

MOTIVATION

  • CQA任务存在语义鸿沟现象,即一个和问题有很多重叠单词的答案可能并不是这个问题的相关答案。
  • 标签不均衡问题:相关答案的整体数量通常比不相关答案的数量少。而且为了更好地利用标注数据以及给QA对提供更多训练,之前的研究大多是对于当前问题,随机采样答案作为这个问题的负样本。这会扩大标签不均衡的问题。

CONTRIBUTIONS

  • 考虑多个粒度级别的匹配(multi-scale matching)扩展当前用于CQA选择任务的matching-aggregating框架,可以明确地考虑单词和不同粒度的n-grams之间的关系。
  • 使用对抗训练网络减轻标签不平衡的问题。通过生成模型交互式地采样负样本的子集,以欺骗分类模型,生成更好的负样本。这种交替优化生成模型和分类模型的策略能够显著提高CQA任务的性能。

MODEL

multi-scale matching

文章遵循matching-aggregating框架,除了word-to-word的比较外,也使用单词和不同长度的ngrams的比较结果(在多个粒度上的比较)。通过考虑word-to-ngrams比较结果,模型可以捕捉不同粒度的语义信息,并且利用它帮助分类。为了获得word-to-ngrams比较结果,文章首先用了CNN来为每个句子学习层级表示。低层的神经元学习局部语义信息,高层次的神经元能够在大文本上压缩信息。例如下图中的Q0是表示的是词向量,Q1表示的是5-gram的语义信息(如果感受野为5)。
在这里插入图片描述

用来进行答案选择的对抗网络

作者提出的对抗训练框架采用一个multi-scale matching生成高质量的负样本,用另一个multi-scale matching判别给定的样本是负样本还是正样本。
目标函数为:
在这里插入图片描述
生成器和判别器模型分别为:
在这里插入图片描述

生成器试图拟合底层的真实数据分布,并在此基础上,从整个答案集中随机抽取一个答案,以欺骗鉴别器。我们利用multi-scale matching模型的打分功能对每一个候选答案进行打分,具有高相关性分数的答案将被高概率采样。也就是说我们倾向于选择与Q更相关的负样本作为答案。

我们需要计算每一个候选答案与问题的得分函数,但是因为候选答案有很多,计算量过大。于是我们采取的办法是控制候选答案来源,候选答案来自于两个方面:①对于问题Q,已经标记为负样本的答案②来自其他与问题Q不相同的问题的答案。

优化部分

在这里插入图片描述

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值