![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文阅读
文章平均质量分 92
没有胡子的猫
这个作者很懒,什么都没留下…
展开
-
Cheap and Good Simple and Effective Data Augmentation for Low Resource Machine Reading
Cheap and Good Simple and Effective Data Augmentation for Low Resource Machine Reading论文:https://arxiv.org/abs/2106.04134代码:https://github.com/vanh17/techqa任务为低资源机器阅读理解提出了一个简单而有效的数据增强策略。首先在包含正确答案的近似上下文的增强数据上对MRC系统的答案提取组件进行预训练,然后再对准确答案的跨度进行训练。方法(模型)原创 2021-08-26 17:03:03 · 183 阅读 · 0 评论 -
Improving Low-resource Reading Comprehension via Cross-lingual Transposition Rethinking
Improving Low-resource Reading Comprehension via Cross-lingual Transposition Rethinking论文:https://arxiv.org/abs/2107.05002任务解决抽取式阅读理解中低资源语言训练数据不足的问题。 通过在多语言环境中对现有的高质量提取式阅读理解数据集进行建模,提出了一个跨语言转置再思考(XLTT)模型(Cross-Lingual Transposition ReThinking)。方法(模型)原创 2021-08-26 17:02:29 · 141 阅读 · 0 评论 -
【论文阅读】Cross-Lingual Machine Reading Comprehension
Cross-Lingual Machine Reading Comprehension论文:https://arxiv.org/abs/1909.00361代码:https://github.com/ymcui/Cross-Lingual-MRC任务虽然机器阅读理解研究得到了飞速发展,多数工作面向的是英文数据,而忽略了机器阅读理解在其他语言上的表现,其根本原因在于大规模训练数据的缺失。本文提出跨语言机器阅读理解(Cross-Lingual MachineReading Comprehensio原创 2021-07-23 19:20:57 · 302 阅读 · 1 评论 -
【论文阅读】EMNLP2020-Semantic Role Labeling Graph Reasoning Network
SRLGRN论文:EMNLP2020-Semantic Role Labeling Graph Reasoning Network语义角色标注图推理网络任务生成需要对多条输入段落进行推理的复杂问题。方法(模型)Methodology(方法):Q=arg maxQP(Q∣D,A)Q = {}\underset{Q} {arg \ max}P(Q|D, A)Q=Qarg maxP(Q∣D,A)其中文档DDD和答案AAA都是单词的序列。目标是生成一个涉及多个证据原创 2021-07-20 19:28:37 · 191 阅读 · 1 评论 -
【论文阅读】Low-Resource Knowledge-Grounded Dialogue Generatio
Low-Resource Knowledge-Grounded Dialogue Generatio论文:https://arxiv.org/abs/2002.10348任务以知识为基础的对话,作为反应生成模型的训练数据,很难获得。本文在有限的训练数据下,进行以知识为基础的对话生成。在这项工作中,专注于以文档为基础的对话生成,但所提出的方法实际上为低资源知识为基础的对话生成提供了一个通用的解决方案,其中的知识可以是结构化的知识库、图像或视频。要做到这一点,只需要修改知识编码器和知识处理器,使其与原创 2021-07-20 19:27:44 · 441 阅读 · 1 评论 -
【论文阅读】Multi-paragraph Reading Comprehension with Token-level Dynamic Reader and Hybrid Verifier
Multi-paragraph Reading Comprehension with Token-level Dynamic Reader and Hybrid Verifier论文:http://vigir.missouri.edu/~gdesouza/Research/Conference_CDs/IEEE_WCCI_2020/IJCNN/Papers/N-20242.pdf任务多段式阅读理解要求模型通过推理跨段落信息来推断任意用户生成的问题的答案。以前的工作通常通过直接采用指针网络预测答案的原创 2021-07-20 19:27:14 · 170 阅读 · 0 评论 -
【论文阅读】Zero-Resource Knowledge-Grounded Dialogue Generation
Zero-Resource Knowledge-Grounded Dialogue Generation论文:https://arxiv.org/abs/2008.12918代码:https://github.com/nlpxucan/ZRKGC任务神经网络对话模型需要以知识为基础的对话,而这些对话很难获得。为了克服数据方面的挑战并降低构建知识基础对话系统的成本,本文通过假设训练时不需要context-knowledge-response三要素,在零资源环境下探索这个问题。贡献:在零资源环原创 2021-07-20 19:21:11 · 462 阅读 · 1 评论 -
【论文阅读】EMNLP2020-Semantic Role Labeling Graph Reasoning Network
SRLGRN论文:EMNLP2020-Semantic Role Labeling Graph Reasoning Network语义角色标注图推理网络任务生成需要对多条输入段落进行推理的复杂问题。方法(模型)Methodology(方法):Q=arg maxQP(Q∣D,A)Q = {}\underset{Q} {arg \ max}P(Q|D, A)Q=Qarg maxP(Q∣D,A)其中文档DDD和答案AAA都是单词的序列。目标是生成一个涉及多个证据原创 2021-07-17 14:31:20 · 204 阅读 · 1 评论 -
【论文阅读】Semantic Graphs for Generating Deep Questions
Semantic Graphs for Generating Deep Questions论文:https://arxiv.org/abs/2004.12704代码:https://github.com/WING-NUS/SG-Deep-Question-Generation任务本文提出了深度问题生成(DQG)的问题,其目的是生成需要对输入段落的多个信息进行推理的复杂问题。方法(模型)为了捕捉文件的全局结构并促进推理,本文提出了一个新的框架,首先为输入的文件构建一个语义层面的图,然后通过引入原创 2021-07-17 14:29:52 · 497 阅读 · 0 评论 -
【论文阅读】Select Answer and Explain Interpretable Multi-hop Reading Comprehension over Multiple Document
Select Answer and Explain Interpretable Multi-hop Reading Comprehension over Multiple Documents论文:https://arxiv.org/abs/1911.00484任务 在多文档的多跳阅读理解(RC)是一个具有挑战性的问题,因为它需要对多个信息源进行推理,并通过提供支持证据来解释答案预测。本文提出了一个有效的、可解释性的选择、回答和解释Select, Answer and Explain(SAE),原创 2021-07-17 14:29:18 · 212 阅读 · 0 评论 -
【论文阅读】Recurrent Chunking Mechanisms for Long-Text Machine Reading Comprehension
Recurrent Chunking Mechanisms for Long-Text Machine Reading Comprehension论文:https://arxiv.org/abs/2005.08056代码:https://github.com/HongyuGong/RCM-Question-Answering任务传统的基于transformer的模型只能接受固定长度(如512)的文本作为其输入。为了处理更长的文本输入,以前的方法通常将它们分割成等距的片段,并根据每个片段独立预测答原创 2021-07-17 14:25:21 · 235 阅读 · 0 评论 -
【论文阅读】Multi-hop Question Generation with Graph Convolutional Network
Multi-hop Question Generation with Graph Convolutional Network论文:https://arxiv.org/abs/2010.09240代码:https://github.com/HLTCHKUST/MulQG任务多跳问题生成(Multi-hop Question Generation,QG)的目的是通过对不同段落中多个分散的证据进行汇总和推理,生成与答案相关的问题。解决两个问题:1.如何有效地识别分散的证据,可以连接答案和问题的推理路径原创 2021-07-15 10:15:28 · 531 阅读 · 0 评论 -
【论文阅读】Multi-hop Question Answering via Reasoning Chains
Multi-hop Question Answering via Reasoning Chains论文:2019-Multi-hop Question Answering via Reasoning Chains基于推理链的多跳问题回答任务 本文提出了一种在文本中提取离散推理链的方法,模型不依赖于gold annotated chains or “supporting facts,使用基于命名实体识别和共指消解的启发式算法得到的pseudogold reasoning chains。推原创 2021-07-10 23:47:31 · 630 阅读 · 3 评论 -
【论文阅读】Multi-Hop Paragraph Retrieval for Open-Domain Question Answering
Multi-Hop Paragraph Retrieval for Open-Domain Question Answering论文:https://arxiv.org/abs/1906.06606代码:https://github.com/yairf11/MUPPET任务多跳开放域问题回答(QA)任务,需要同时进行文本推理和高效搜索。本文提出了一种检索多个支持段落的方法,这些段落嵌套在一个庞大的,包含回答一个给定问题的必要证据的知识库中。方法(模型)本文提出的方法通过形成一个问题和段落的联原创 2021-07-10 23:46:59 · 238 阅读 · 0 评论 -
【论文阅读】MemNN
MemNNMemory Networks:记忆网络任务传统的RNN和其改进模型虽然具有记忆功能,但是在长期记忆中表现并不好,Memory Networks的目的是实现长期记忆。方法(模型)MEMORY NETWORKS组成:1个内存模块(m—用索引的数组),4个组件(I,G,O,R—通过学习得到)组件III:(输入特征映射)—— 将输入转换为内部特征表示。GGG:(泛化)—— 对于给定新的输入更新旧的内存。称之为泛化是因为在这个阶段网络有机会压缩并泛化其内存以供未来某些需要。原创 2021-07-10 23:46:25 · 278 阅读 · 0 评论 -
【论文阅读】Learning to Retrieve Reasoning Paths over Wikipedia Graph for Question Answering
Learning to Retrieve Reasoning Paths over Wikipedia Graph for Question Answering论文:https://arxiv.org/abs/1911.10470代码:https://github.com/AkariAsai/learning_to_retrieve_reasoning_paths学习在维基百科中检索问题的推理路径基于推理路径任务从维基百科中提取推理路径实现多轮问答。多轮问答:需要结合多篇文档的“原创 2021-07-10 23:44:22 · 336 阅读 · 0 评论 -
【论文阅读】Learning to Prune Dependency Trees with Rethinking for Neural Relation Extraction
Learning to Prune Dependency Trees with Rethinking for Neural Relation Extraction论文:https://www.aclweb.org/anthology/2020.coling-main.341/代码:https://github.com/Cartus/AGGCN任务 预测给定句子中的两个实体之间的关系。 利用输入句子的依赖树模型在捕获目标实体之间的长距离关系方面是有效的。但并不是所有依赖树中的标记都需要表原创 2021-07-10 23:43:42 · 409 阅读 · 1 评论 -
【论文阅读】Is Graph Structure Necessary for Multi-hop Question Answering?
Is Graph Structure Necessary for Multi-hop Question Answering?论文:EMNLP 2020-Is Graph Structure Necessary for Multi-hop Question Answering任务探讨多步推理问答任务中是否需要图结构的问题。验证自注意力或者Transformer可能更加擅长处理多步推理问答任务。方法(模型)本文的实验使用Distractor设定。基线模型使用一个检索模型检出候选段落中原创 2021-07-10 23:42:34 · 177 阅读 · 1 评论 -
【论文阅读】HOTPOTQA A Dataset for Diverse, Explainable Multi-hop Question Answering
HOTPOTQA A Dataset for Diverse, Explainable Multi-hop Question Answering论文:https://arxiv.org/pdf/1809.09600.pdf一个多样的,可解释的多跳问答数据集。任务现有的问答数据集不能训练QA系统进行复杂的推理并提供答案的解释。提出hotpot数据集,提供支持事实使模型能够改进性能并做出可解释的预测。HOTPOTQA介绍HOTPOTQA是一个新的数据集,拥有113k个基于Wikipedia的问答原创 2021-07-10 23:42:07 · 1325 阅读 · 1 评论 -
【论文阅读】Hierarchical Graph Network for Multi-hop Question Answering
Hierarchical Graph Network for Multi-hop Question Answering论文:https://arxiv.org/abs/1911.03631代码:https://github.com/yuwfan/HGN任务 提出了用于多跳问题回答的 Hierarchical Graph Network(HGN)。为了将分散在多个段落的文本中的线索汇总起来,通过构建不同粒度级别的节点(问题、段落、句子和实体)来创建一个层次图。将异质节点被编织成一个完整的图,不原创 2021-07-09 09:37:15 · 915 阅读 · 4 评论 -
【论文阅读】GRAPH-BASED RECURRENT RETRIEVER
GRAPH-BASED RECURRENT RETRIEVERa new graph-based recurrent retrieval method查找证据文档作为回答复杂问题的推理路径。wi=BERTCLS(q,pi)∈Rdw_i=BERT_{CLS}(q,p_i) \in \R^dwi=BERTCLS(q,pi)∈RdP(pi∣ht)=σ(wi⋅ht+b)P(p_i|h_t)=\sigma(w_i·h_t+b)P(pi∣ht)=σ(wi⋅ht+b)ht=1=RNN(原创 2021-07-09 09:36:35 · 211 阅读 · 4 评论 -
【论文阅读】GCN
GCNGCN:图卷积网络SEMI-SUPERVISED CLASSIFICATION WITH GRAPH CONVOLUTIONAL NETWORKS:基于图卷积网络的半监督分类任务在图结构数据中,一部节点已知标签,剩下的节点标签未知,使用已知标签的节点训练卷积神经网络,使用网络模型对无标签的节点进行分类。方法(模型)提出了一种可扩展的基于图结构数据的半监督分类方法。分层传播规则:通过谱图卷积(spectral graph convolutions) 的局部一阶近似,来确定卷积网络原创 2021-07-09 09:35:28 · 475 阅读 · 0 评论 -
【论文阅读】Dynamically Fused Graph Network for Multi-hop Reasoning
Dynamically Fused Graph Network for Multi-hop Reasoning论文:https://arxiv.org/abs/1905.06933代码:https://github.com/woshiyyya/DFGN-pytorch任务处理基于文本的问题回答(TBQA),现有的大多数方法都侧重于在一个段落中寻找问题的答案。但是许多复杂的问题需要从两个或更多的文档中分散的文本中寻找多个支持证据。本文提出了动态融合图网络(DFGN),来回答需要从多个分散的证据推理原创 2021-07-09 09:33:46 · 402 阅读 · 0 评论 -
【论文阅读】Dynamic Sampling Strategies for Multi-Task Reading Comprehension
Dynamic Sampling Strategies for Multi-Task Reading Comprehension论文:https://www.aclweb.org/anthology/2020.acl-main.86.pdf代码:https://github.com/mrqa/MRQA-Shared-Task-2019任务根据多任务模型在数据集上的当前表现与单任务表现的比例来选择训练实例,比较哪种实例抽样方法和历时调度策略能提供最佳性能。catastrophic forget原创 2021-07-09 09:33:12 · 134 阅读 · 0 评论 -
【论文阅读】DDRQA: Dynamic Document Reranking for Open-domain Multi-hop Question Answering
DDRQA: Dynamic Document Reranking for Open-domain Multi-hop Question Answering论文:https://arxiv.org/abs/2009.07465任务 开放领域多跳答题(QA)需要检索多个支持性文档,其中一些文档与问题的词义重合度不高,无法直接检索,只能通过迭代文档检索来定位。然而,多步骤的文档检索往往会产生更多的相关但非支持性的文档,这就抑制了下游噪声敏感的reader模块的答案提取。为了解决这一难题,本文提出了原创 2021-07-09 09:32:38 · 310 阅读 · 0 评论 -
【论文阅读】Reinforced Multi-task Approach for Multi-hop Question Generation
Reinforced Multi-task Approach for Multi-hop Question Generation论文:https://arxiv.org/abs/2004.02143任务问题生成试图解决问题回答的逆向问题,通过给定一个文件和一个答案来生成一个自然语言问题。本文旨在使用多个支持性事实来生成高质量的问题。方法(模型)采用了多跳问题生成,根据上下文中的支持事实生成相关问题。采用了多任务学习的方式,并辅以answer-aware支持性事实预测的任务来指导问题生成器。问原创 2021-07-09 09:31:05 · 159 阅读 · 3 评论 -
【论文阅读】Attention Is All You Need
Attention Is All You Need应用于NLP的机器翻译问题。任务由于RNN的递归结构,导致它无法并行计算,RNN以及他的衍生模型最大的缺点就是计算缓慢。并且缺乏对全局信息的理解。因此提出了完全基于attention的Transformer模型。方法(模型)Transformer模型是纯attention模型,完全依赖attention机制来描述输入与输出的全局依赖。模型:输入:x=(x1,x2,⋯,xn)x=(x1,x2,⋯,xn)x=(x1,x2,⋯,xn)(是一原创 2021-07-07 16:30:45 · 149 阅读 · 0 评论 -
【论文阅读】 Asking Complex Questions with Multi-hop Answer-focused Reasoning
Asking Complex Questions with Multi-hop Answer-focused Reasoning论文:Asking Complex Questions with Multi-hop Answer-focused Reasoning代码:https://github.com/Shawn617/Multi-hop-NQG任务multihop question generation大多数先进的方法都集中在涉及单跳关系的简单问题的提问上,本文提出了一种名为多跳问题生成的原创 2021-07-07 16:30:07 · 218 阅读 · 0 评论 -
【论文阅读】Answering Complex Open-domain Questions Through Iterative Query Generation
Answering Complex Open-domain Questions Through Iterative Query Generation论文:Answering Complex Open-domain Questions Through Iterative Query Generation代码:https://github.com/qipeng/golden-retriever任务对于目前的单跳检索和阅读问题回答系统来说,问题很少包含关于缺失实体的可检索线索。回答这样的问题需要进行多原创 2021-07-07 16:29:37 · 207 阅读 · 2 评论 -
【论文阅读】Multi-hop Reading Comprehension through Question Decomposition and Rescoring
Multi-hop Reading Comprehension through Question Decomposition and Rescoring论文:https://arxiv.org/abs/1906.02916代码:https://github.com/shmsw25/DecompRC任务多跳阅读理解(RC)需要在几个段落中进行推理和汇总。本文提出了将一个组合式问题分解为更简单的子问题的多跳阅读理解系统,似的这些分解的子问题可以由现成的单跳阅读模型来回答。由于这种分解的注释代价很高,原创 2021-07-07 16:27:02 · 418 阅读 · 0 评论 -
【论文阅读】Avoiding Reasoning Shortcuts Adversarial Evaluation, Training, and Model Development for Multi
Avoiding Reasoning Shortcuts Adversarial Evaluation, Training, and Model Development for Multi-HopQA论文:https://arxiv.org/abs/1906.07132代码:https://github.com/jiangycTarheel/Adversarial-MultiHopQA任务 多跳答题需要模型将分散在长上下文中的多个证据连接起来来回答问题。本文在HotpotQA数据集上,通过构原创 2021-07-07 16:25:52 · 158 阅读 · 0 评论 -
【论文阅读】Answering while Summarizing Multi-task Learning for Multi-hop QA with Evidence Extraction
Answering while Summarizing: Multi-task Learning for Multi-hop QA with Evidence Extraction论文:https://arxiv.org/pdf/1905.08511.pdf任务本文聚焦于可解释的多跳QA任务,要求系统通过推理和收集参考文本的不相交片段来返回带有证据句子的答案。提出了**Query Focused Extractor(QFE)**模型用于证据提取,并使用多任务学习与QA模型。方法(模型)Quer原创 2021-07-07 16:24:47 · 207 阅读 · 3 评论 -
【论文阅读】A Simple and Effective Model for Answering Multi-span Questions
A Simple and Effective Model for Answering Multi-span Questions论文:EMNLP20-A Simple and Effective Model for Answering Multi-span Questions代码:https://github.com/eladsegal/tag-based-multi-span-extractionmulti-span architecture (TASE: TAg-based Span Extrac原创 2021-07-07 16:24:28 · 159 阅读 · 0 评论