A Context-aware Attention Network for Interactive Question Answering--阅读笔记

论文来源:2017 KDD
论文链接

ABSTRACT

  • 背景:编码器 - 解码器框架中的基于神经网络的序列到序列模型已经成功地应用于求解回答(QA)问题,预测来自陈述和问题的答案。

  • 不足:几乎所有以前的模型都没有考虑详细的上下文信息和未知状态,在这些状态下,系统没有足够的信息来回答给定的问题。在交互式答复(IQA)的选择中,包含不完整或模糊信息的情景是非常普遍的。

  • Main idea:我们开发了一个新颖的模型,采用了依赖于上下文的单词级别来更精确的语句表示和问题引导的句子级别。我们还生成独特的IQA数据集来测试我们的模型。使用这些机制,我们的模型能够准确地理解何时可以输出答案,或者何时需要根据不同的上下文为附加输入生成补充问题。在可用时,用户的反馈被编码并直接应用以更新句子级别来推断答案。

  • 实验:对QA和IQA数据集进行的大量实验定量地证明了我们的模型的有效性,与先进的传统QA模型相比显着改进。

INTRODUCTION

背景

随着大规模QA数据集,高容量机器学习/数据挖掘模型和强大的计算设备的可用性,对QA的研究已经变得活跃而富有成效。诸如谷歌助理,苹果Siri,亚马逊Alexa,Facebook M,Microso Cortana,小冰中文,日文Rinna和MedWhat等商用QA产品在过去几年已经发布。

质量保证研究的最终目标是构建能够自然与人交流的智能系统,这对自然语言处理和机器学习提出了重大挑战。

研究人员已经将编码器 - 解码器框架的序列模型的变体应用于显式存储器和QA任务,旨在移动一步进一步从机器学习到机器推理。同样,所有这些模型都使用编码器来将语句和问题映射到固定长度的特征向量,并使用解码器来生成输出。通过记忆和设置的强化,他们在几个具有挑战性的公共数据集,包括最近广受好评的Facebook bAbI数据集,取得了显着的成功。

现存模型的限制

以前的模型有以下重要限制:
- 首先,他们不能模拟语言的依赖语境的含义。不同的语言在不同的语境中可能有不同的含义,这就增加了在不同的段落中提取每个句子的基本语义逻辑流的困难。
- 其次,许多现有的模型只能在理想的QA设置中工作,并且

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值