entity linking paper
文章平均质量分 77
entity linking paper
辉辉小学生
要真正的喜欢。
展开
-
MuVER: Improving First-Stage Entity Retrieval withMulti-View Entity Representations
...原创 2022-06-25 18:22:48 · 108 阅读 · 0 评论 -
Scalable Zero-shot Entity Linking with Dense Entity Retrieval
...原创 2022-06-23 18:16:49 · 297 阅读 · 0 评论 -
Paper小计:AUTOREGRESSIVE ENTITY RETRIEVAL
ABSTRACT :实体是我们如何表示和聚合知识的中心。(entity很重要。)检索给定查询的这些实体的能力是知识密集型任务的基础,如实体链接和开放领域的问题回答。(检索给定查询的实体的能力很重要,以及其实际运用。)该方法导致三个缺点:1.上下文和实体亲和性主要通过向量点积捕获,可能缺少两者之间的细粒度交互。2.在考虑大型实体集时,需要较大的内存占用来存储密集的表示。3.在训练时必须对适当的硬负数据集进行下采样。propose:GENRE:通过生成实体的唯一名称,从左原创 2022-05-28 17:47:16 · 379 阅读 · 0 评论 -
paper小计:Empirical Evaluation of Pretraining Strategies forSupervised Entity Linking
Abstract 在这项工作中,我们提出了一个实体链接模型,它结合了一个transformer架构与来自维基百科链接的大规模预训练。Introduction 略Related Work我们没有明确地建模文档级的消除歧义。然而,我们的长上下文窗口包含了几个提到,这应该允许这种消除歧义。我们通过直接从维基百科文本中学习实体的分布式表示来对我们的模型进行预训练,我们的嵌入是直接学习的,而不是通过实体描述生成的。我们没有使用额外的特征,如先验概率或字符串匹配特征。考虑上下文中的所有.原创 2022-04-25 14:43:02 · 3061 阅读 · 1 评论 -
ENTQA: ENTITY LINKING AS QUESTION ANSWERING
ABSTRACT 实体链接的传统方法是首先在给定文档中找到提及的内容,然后在知识库中推断它们的底层实体。局限性:它需要在不知道其实体的情况下找到提及,这是不自然的和困难的。作为应对的新模型:EntQA 不受该限制,它代表entity linking作为问题回答。工作概述:首先提出具有快速检索模块的候选实体,然后仔细检查文档,以使用强大的阅读模块找到每个候选实体的提及情况。与以前的工作不同,我们不依赖于提及候选字典或大规模的弱监督。EntQA在沙鼠基准测试平台上取得了良好的结果。IN原创 2022-04-25 09:27:52 · 343 阅读 · 0 评论 -
Paper小计:Investigating Entity Knowledge in BERT with Simple Neural End-To-EndEntity Linking
Abstract端到端实体连接系统的典型体系结构包括三个步骤:提到检测、候选生成和实体消除消义。在本研究中,我们调查了以下问题:(a)所有这些步骤能否与情境化文本表示模型共同学习,即BERT?(b)在预先训练好的BERT中已经包含了多少实体知识?(c)附加的实体知识是否已经提高了BERT在下游任务中的性能?为此,我们提出了一种对实体链接设置的极端简化,它工作得非常好:简单地将其转换为整个实体词汇表(在我们的例子中超过700K类)。我们展示一个实体链接基准(1)这个模型改进了实体表原创 2022-04-24 08:39:55 · 189 阅读 · 0 评论