爬在NLP的大道上——A Neural Model for Joint Document and Snippet Ranking in Question Answering for Large Doc

论文地址:https://arxiv.org/pdf/2106.08908.pdf

Motivation:

  1. 注意到在解决QA问题时,如果采取“先对document进行rerank打分,再对高分的document中的snippet进行打分”这种分开的方法,会造成错误的传递(无法修改)
  2. 例子:document D的rerank得分比较低,但其中存在snippet s相关性非常高,但以上的上下游的做法导致无法将s的信息传递回D,理论上应该对D的打分有所修复(即提高)

Method:

显然地,对以上问题的解决方法是,将“先对document进行rerank打分,再对高分的document中的snippet进行打分”这种异步的方式合二为一

  1. 将这种思想用于对两种模型:PDRMM和BERT,进行document打分任务时改造
    原模型:PDRMM
    BERT
    改造后:JPDRMM
    原模型输入为每个document的embedding来输出此document对应的得分,改造后的模型输入为document中的每个sentence,产出sentence的得分,再将这些打分过上图这一层layer,完成document和其中sentence进行整合操作的思想(其中橙色部分表示此document的一些属性,比如特征长度,召回数量,IDF总和等)
  2. 应用于PDRMM称为JPDRMM,应用于BERT称为JBERT

Tips:

  1. 将传统QA流水线核心的两个过程合二为一,压缩了模型大小
  2. 将document和其各sentence的打分拼接一起处理,避免了异步处理导致的效果不一致

Results:

  1. 在生物医疗数据集(BIOASQ)和开放域数据集(Natural Questions)上snippet级的效果好,document级的效果也不差
  2. 模型参数相较于原二步处理的方法少了很多(因为合二为一)

My Thoughts:

  1. 速度应该很差,毕竟需要对全量sentence进行编码、跑分
  2. 没有进行合适的消融实验,使用当前合二为一的模型去与之前的每一步进行对比显得不是很科学,应该对比的是这个新layer内部的各个结构设计的科学性
  3. (全量sentence处理当然snippet的正确率会高吧?)

(ps:本文图片均来自于原paper,侵删)

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值