IR-QA
文章平均质量分 93
我黑切呢**
这个作者很懒,什么都没留下…
展开
-
Question Directed Graph Attention Network for Numerical Reasoning over Text
Question Directed Graph Attention Network for Numerical Reasoning over Text摘要对文本进行数字推理,如加法、减法、排序和计数,是一项具有挑战性的机器阅读理解任务,因为它需要自然语言理解和算术计算。为了应对这一挑战,作者提出了一种异构图表示,用于这种推理所需的文章和问题的上下文,并设计了一个问题导向图注意网络来驱动该上下文图上的多步数值推理。介绍作者认为QANET和NumNet对于复杂的数值推理是不够的,因为它们缺少数值...原创 2021-02-02 13:24:14 · 981 阅读 · 0 评论 -
DC-BERT
DC-BERT: DECOUPLING QUESTION AND DOCUMENT FOR EFFICIENT CONTEXTUAL ENCODINGMotivation关注预训练的LM应用于open-domain的无法处理高吞吐量的传入问题。DC-BERTBBBEEERRRTTT的较低层编码更多的局部句法信息,如词性标签,而较高层往往依赖于更广泛的上下文来捕捉更复杂的语义。DDDCCCBBBEEERRRTTT受这个启发,它将BBBEEERRRTTT的较低层解耦到本地上下文(question和.原创 2021-01-24 19:43:29 · 425 阅读 · 0 评论 -
DUET and updated DUET(2016 and 2019)
Learning to Match Using Local and Distributed Representations of Text for Web Search摘要DUET由两个独立的深度神经网络组成,一个使用局部表示匹配查询和文档,另一个使用学习的分布式表示匹配查询和文档。这两个网络作为单个神经网络的一部分被联合训练。Motivationlocal 模型进行精确匹配,分布式模型进行 同义词,相关术语或者语义匹配。讨论作者提出三个高效IR的属性exact match :这是I..原创 2021-01-24 15:09:15 · 461 阅读 · 0 评论 -
ColBERT(2020SIGIR)
ColBERT: Eficient and Efective Passage Search via Contextualized Late Interaction over BERTMotivation预训练的LM在IR上计算成本太高。本文考虑降低计算成本的同时,保证检索性能,并且结合基于表示和交互的模型(如下图ddd)。IR模型对比:(ddd):每个查询 embedding 都通过MaxSim操作符与所有文档嵌入交互,MaxSim操作符计算最大相似度(例如cos),并且这些操作符的标量输出..原创 2021-01-22 15:44:46 · 2848 阅读 · 0 评论 -
LSTM+CNN+ATTENTION(QA)
一、四个模型注意力:实验数据集:InsuranceQA二、三个变化:1.LSTM只用输入们2.提出对比五个比较函数(图右边5个)3.最后一层加Cnn实验1 https://github.com/shuohangwang/SeqMatchSeq三、变化:嵌入层用预训练语言模型代替(ELMo)+ATTENTION+聚类+迁移学习实验...原创 2020-10-24 16:09:34 · 4341 阅读 · 0 评论