NLP
文章平均质量分 90
nlp
sun_yi_gui
这个作者很懒,什么都没留下…
展开
-
【笔记】Three Sentences Are All You Need Local Path Enhanced DocumentRelation Extraction
【笔记】Three Sentences Are All You Need: Local Path Enhanced DocumentRelation Extraction 看前预备知识 信息抽取的三个最重要的子任务: 实体抽取 也就是实体识别,包括实体的检测(find)和分类(classify) 关系抽取 通常是三元组(triple)抽取,一个谓词带两个形参 事件抽取 相当于一种多元关系的抽取。 摘要 在本文中,作者提出了一种简单但有效的方法来启发式地选择证据句子进行文档关系抽取,它可以很容原创 2021-11-30 18:32:55 · 1157 阅读 · 1 评论 -
文献收集:
文献收集: 文档分类: 《Team “DaDeFrNi” at CASE 2021 Task 1: Document and Sentence Classification for Protest Event Detection》【ACL】【2021】 《Every Document Owns Its Structure: Inductive Text Classification via Graph Neural Networks》【ACL】【2020】 《Aspect Sentimen原创 2021-11-21 20:08:11 · 745 阅读 · 0 评论 -
【笔记】Representation Learning for Information Extractionfrom Form-like Documents
Representation Learning for Information Extractionfrom Form-like Documents 摘要 本文提出了一种表示学习,用来抽取表单文档的结构化信息。本文提出了一个提取系统,利用目标字段类型的知识来生成提取候选项,以及一个神经网络架构,该架构根据文档中的邻近单词学习每个候选项的密集表示。这种方法可以用来解决(1)来自两个不同领域的看不见的文档模板的提取;(2) 1 介绍 在本文中,作者提出一种新方法,用提取候选项的学习表示从表单文档中提取结构化信息原创 2021-11-15 21:21:33 · 413 阅读 · 0 评论 -
【笔记】Effificiently Summarizing Text and Graph Encodings of Multi-Document Clusters
Effificiently Summarizing Text and Graph Encodings of Multi-Document Clusters 1 摘要 本文提出了用有效总结文本和图编码处理MDS,还用BART预训练提高了MDS的性能,在这基础上还用Longformer的基础方法(Beltagyetal.,2020) ,避免了传统Transformers的二次内存增长。是基于非常大的文本数据上预训练编码器解码器的最新进展。 2 解决问题 现有研究的缺陷: 1)由于编码长度限制和二次内存增长,不能原创 2021-11-03 12:35:42 · 190 阅读 · 0 评论 -
【笔记】Every Document Owns Its Structure Inductive Text Classifification via
【笔记】Every Document Owns Its Structure: Inductive Text Classifification via Graph Neural Networks 一、背景 1.1 作者通过什么样的方法,解决了怎样的问题,得出了怎样的结论? 作者提出了TextING通过GNN进行归纳文本分类的方法,解决了现在基于图的工作不能捕获每个文档中的上下文单词关系以及不能完成对新单词归纳学习的问题,得出作者的方法优于最先进的文本分类方法。 1.2 作者方法的三大贡献 提出一种新的文本分原创 2021-10-29 23:32:30 · 572 阅读 · 0 评论 -
【笔记】Reading Order Equivariant Positional Encoding for Graph-based Document Information Extraction
Reading Order Equivariant Positional Encoding for Graph-based Document Information Extraction 一、简单概括 本文提出了读序等变位置编码(Reading Order Equivariant Positional Encoding)(ROPE),一种新的位置编码技术,旨在理解文档中单词的顺序表示。 ROPE为给定单词级图连接的相邻单词相对于目标单词生成唯一的阅读顺序编码。 在这项工作中,我们提出了一种简单而有效的读序等原创 2021-10-26 14:41:02 · 365 阅读 · 1 评论